993 resultados para Modèle numérique non linéaire
Resumo:
L’insomnie, commune auprès de la population gériatrique, est typiquement traitée avec des benzodiazépines qui peuvent augmenter le risque des chutes. La thérapie cognitive-comportementale (TCC) est une intervention non-pharmacologique ayant une efficacité équivalente et aucun effet secondaire. Dans la présente thèse, le coût des benzodiazépines (BZD) sera comparé à celui de la TCC dans le traitement de l’insomnie auprès d’une population âgée, avec et sans considération du coût additionnel engendré par les chutes reliées à la prise des BZD. Un modèle d’arbre décisionnel a été conçu et appliqué selon la perspective du système de santé sur une période d’un an. Les probabilités de chutes, de visites à l’urgence, d’hospitalisation avec et sans fracture de la hanche, les données sur les coûts et sur les utilités ont été recueillies à partir d’une revue de la littérature. Des analyses sur le coût des conséquences, sur le coût-utilité et sur les économies potentielles ont été faites. Des analyses de sensibilité probabilistes et déterministes ont permis de prendre en considération les estimations des données. Le traitement par BZD coûte 30% fois moins cher que TCC si les coûts reliés aux chutes ne sont pas considérés (231$ CAN vs 335$ CAN/personne/année). Lorsque le coût relié aux chutes est pris en compte, la TCC s’avère être l’option la moins chère (177$ CAN d’économie absolue/ personne/année, 1,357$ CAN avec les BZD vs 1,180$ pour la TCC). La TCC a dominé l’utilisation des BZD avec une économie moyenne de 25, 743$ CAN par QALY à cause des chutes moins nombreuses observées avec la TCC. Les résultats des analyses d’économies d’argent suggèrent que si la TCC remplaçait le traitement par BZD, l’économie annuelle directe pour le traitement de l’insomnie serait de 441 millions de dollars CAN avec une économie cumulative de 112 billions de dollars canadiens sur une période de cinq ans. D’après le rapport sensibilité, le traitement par BZD coûte en moyenne 1,305$ CAN, écart type 598$ (étendue : 245-2,625)/personne/année alors qu’il en coûte moyenne 1,129$ CAN, écart type 514$ (étendue : 342-2,526)/personne/année avec la TCC. Les options actuelles de remboursement de traitements pharmacologiques au lieu des traitements non-pharmacologiques pour l’insomnie chez les personnes âgées ne permettent pas d’économie de coûts et ne sont pas recommandables éthiquement dans une perspective du système de santé.
Resumo:
L’étude de la gestion du changement s’attache à identifier ce qui peut être agissant dans l’organisation, la faisant évoluer dans un sens favorable ou défavorable aux objectifs définis par ceux qui en ont la charge. La présente étude a pour objet de comparer les propositions d’une approche ventriloque de la communication, telle qu’elle est formulée par François Cooren dans Action and agency in dialogue (2010) avec deux ouvrages traitant du changement organisationnel : The knowledge-creating company (Notaka & Takeuchi, 1995) et La Danse du changement (Senge, 1999). L’objectif est d’examiner dans quelle mesure la perspective ventriloque permet une meilleure compréhension de la nature et des contributions de ces différentes formes d’agentivité. A travers cet examen comparatif, l’ambition de ce travail est aussi d’offrir un point de vue sur la ventriloquie elle-même qui mette en exergue ses aspects les plus novateurs et démontre ainsi l’avancée représentée notamment par l’agentivité non humaine et la dislocalité de l’interaction.
Resumo:
La transglutaminase microbienne (Microbial transglutaminase : MTG) est fortement exploitée dans l’industrie textile et alimentaire afin de modifier l’apparence et la texture de divers produits. Elle catalyse la formation de liaisons iso-peptidiques entre des protéines par l’entremise d’une réaction de transfert d’acyle entre le groupement γ-carboxamide d’une glutamine provenant d’un substrat donneur d’acyle, et le groupement ε-amino d’une lysine provenant d’un substrat accepteur d’acyle. La MTG est tolérante à un large éventail de conditions réactionnelles, ce qui rend propice le développement de cette enzyme en tant que biocatalyseur. Ayant pour but le développement de la MTG en tant qu’alternative plus soutenable à la synthèse d’amides, nous avons étudié la réactivité d’une gamme de substrats donneurs et accepteurs non-naturels. Des composés chimiquement diversifiés, de faible masse moléculaire, ont été testés en tant que substrats accepteurs alternatifs. Il fut démontré que la MTG accepte une large gamme de composés à cet effet. Nous avons démontré, pour la première fois, que des acides aminés non-ramifiés et courts, tels la glycine, peuvent servir de substrat accepteur. Les α-acides aminés estérifiés Thr, Ser, Cys et Trp, mais pas Ile, sont également réactifs. En étendant la recherche à des composés non-naturels, il fut observé qu’un cycle aromatique est bénéfique pour la réactivité, bien que les substituants réduisent l’activité. Fait notable, des amines de faible masse moléculaire, portant les groupements de forte densité électronique azidure ou alcyne, sont très réactives. La MTG catalyse donc efficacement la modification de peptides qui pourront ensuite être modifiés ou marqués par la chimie ‘click’. Ainsi, la MTG accepte une variété de substrats accepteurs naturels et non-naturels, élargissant la portée de modification des peptides contenant la glutamine. Afin de sonder le potentiel biocatalytique de la MTG par rapport aux substrats donneurs, des analogues plus petits du peptide modèle Z-Gln-Gly furent testés; aucun n’a réagi. Nous avons toutefois démontré, pour la première fois, la faible réactivité d’esters en tant que substrats donneurs de la MTG. L’éventuelle amélioration de cette réactivité permettrait de faire de la MTG un biocatalyseur plus général pour la synthèse d’amides. Mots clés: Lien amide, biocatalyse, biotransformation, transglutaminase, arrimage moléculaire, criblage de substrats, ingénierie de substrats.
Resumo:
Les données comptées (count data) possèdent des distributions ayant des caractéristiques particulières comme la non-normalité, l’hétérogénéité des variances ainsi qu’un nombre important de zéros. Il est donc nécessaire d’utiliser les modèles appropriés afin d’obtenir des résultats non biaisés. Ce mémoire compare quatre modèles d’analyse pouvant être utilisés pour les données comptées : le modèle de Poisson, le modèle binomial négatif, le modèle de Poisson avec inflation du zéro et le modèle binomial négatif avec inflation du zéro. À des fins de comparaisons, la prédiction de la proportion du zéro, la confirmation ou l’infirmation des différentes hypothèses ainsi que la prédiction des moyennes furent utilisées afin de déterminer l’adéquation des différents modèles. Pour ce faire, le nombre d’arrestations des membres de gangs de rue sur le territoire de Montréal fut utilisé pour la période de 2005 à 2007. L’échantillon est composé de 470 hommes, âgés de 18 à 59 ans. Au terme des analyses, le modèle le plus adéquat est le modèle binomial négatif puisque celui-ci produit des résultats significatifs, s’adapte bien aux données observées et produit une proportion de zéro très similaire à celle observée.
Resumo:
Les premières cellules progénitrices lympho-myéloïdes (LMPP) entrent dans le thymus et commencent leur processus de différenciation au stade double négatif (DN, CD4-CD8-). Après un réarrangement fonctionnel de la chaine bêta de leur récepteur des cellules T (RCT), les cellules reçoivent des signaux de différenciation, de prolifération, de survie et de sélection et passent au stade double positif (DP, CD4+CD8+). Ensuite, la chaine alpha du RCT est réarrangée et testée via les sélections positive et négative. Si le RCT reçoit un signal ni trop fort, ni trop faible, les cellules passent au stade simple positif où elles exprimeront soit la molécule CD4 ou CD8. ERK3, une MAPK non-conventionnelle, joue un rôle important dans le développement thymique. Des études précédentes ont démontré qu’une déficience en ERK3 diminue de 50 % la cellularité thymique et de 75% le nombre de cellules simples positives CD4 (CD4SP). Nous avons posé comme hypothèses qu’il y a une augmentation de l’apoptose chez les thymocytes DP de souris Erk3-/- et que cette déficience chez les thymocytes DP affecterait la sélection positive des cellules DP, réduisant ainsi le nombre de thymocytes CD4SP. Afin de vérifier la première hypothèse, nous avons regardé les niveaux d’apoptose grâce à la cytométrie en flux et par immunohistochimie. Dans les deux cas, nous étions incapables de détecter une différence du niveau d’apoptose chez les thymocytes DP entre les souris Erk3+/+ et Erk3-/-. Ensuite, nous nous sommes posés la question suivante : La demi-vie des thymocytes DP Erk3-/- était-elle plus courte que le type sauvage? La demi-vie des thymocytes DP a été mesurée à l’aide de l’étude des réarrangements secondaires de la chaine alpha du RCT par PCR semi-quantitatif et à l’aide de cultures de thymus fœtaux. En effet, ERK3 semble important pour prolonger la demi-vie des thymocytes DP. Ensuite, nous avons utilisé des marqueurs cellulaires différentiels (CD69, CD5 et RCT) pour regarder si les thymocytes DP sont capables de passer la sélection positive. En effet, il y a moins de thymocytes DP Erk3-/- qui sont CD69fort, CD5fort et RCTfort. Finalement, nous voulons savoir si les fonctions de ERK3 passent par MK5, son seul partenaire d’interaction connu à ce jour. Après la caractérisation du thymus de la souris Mk5-/-, nous observons que seulement la réduction du nombre de thymocytes CD4SP est identique à celle des thymocytes CD4SP de la souris Erk3-/-. En conclusion, ces résultats révèlent des fonctions importantes pour la molécule ERK3 lors du processus de sélection positive, le maintient de la demi-vie des thymocytes DP et lors de la régulation de développement thymique de manière MK5-dépendante et -indépendante.
Resumo:
L'allergie au lait de vache (ALV) représente l'allergie alimentaire la plus fréquemment rencontrée durant l'enfance. Cette allergie a longtemps été reconnue comme transitoire mais des données récentes révèlent que celle-ci est persistante chez environ 15% des enfants qui en sont touchés durant l'enfance, posant ainsi un risque à leur santé. La présente étude examine 26 enfants avec ALV et 12 enfants contrôles recrutés au CHU Sainte-Justine durant l’hiver 2011-2012. L'objectif étant de comparer la densité minérale osseuse (DMO) et les niveaux sériques de 25(OH)D d'enfants prépubères avec ALV non résolue à un groupe contrôle d'enfants avec autres allergies alimentaires, en plus d'évaluer les apports en calcium et en vitamine D ainsi que l'adhérence à la supplémentation chez cette population. La DMO lombaire (L2-L4) ne diffère pas significativement entre les groupes. Cependant, une faible densité osseuse, caractérisée par un score-Z entre -1,0 et -2,0 pour l'âge et le sexe, est détectée chez plus de 30% des enfants avec ALV et plus de 16% du groupe contrôle, sans allergie au lait. Tel qu'attendu, les apports en calcium sont significativement moins élevés chez les enfants avec ALV comparé au groupe contrôle, avec près de 90% de tous nos participants ne rencontrant pas les besoins pour l’âge en vitamine D. Plus de la moitié des enfants avec ALV présentent une concentration de 25(OH)D inférieure à 75 nmol/L. Cependant, notre étude n'a décelé aucune différence entre les niveaux sériques de 25(OH)D des enfants avec ALV comparativement au groupe contrôle. Enfin, l'adhérence à la supplémentation est jugée adéquate chez plus de 75% de notre groupe d'enfants avec ALV, soit ≧ 4 journées par semaine, un facteur aussi associé à une meilleure atteinte de leurs apports nutritionnels en calcium et en vitamine D. Enfin, ces résultats soulignent l'importance de suivre la santé osseuse d'enfants avec ALV ainsi qu'avec allergies multiples, qui présentent un risque de faible densité osseuse. L'intervention nutritionnelle devrait suivre l'adhérence à la supplémentation chez les enfants avec ALV non résolue, afin d'optimiser les apports nutritionnels insuffisants en calcium et en vitamine D
Resumo:
L’expérience de douleur et la réponse à son traitement sont teintées par les facteurs psychologiques, parmi lesquels figurent les attentes. Cette thèse propose de raffiner la compréhension de l’effet des attentes sur la régulation de la douleur par l’entremise de deux études quantitatives. D'abord, une étude expérimentale explore l'impact des attentes sur l'analgésie induite par contre-stimulation. Des volontaires sains ont été assignés à une condition contrôle ou à l’un des trois groupes au sein desquels les attentes étaient évaluées (attentes a priori) ou manipulées par l’entremise de suggestions (hyperalgésie ou analgésie). La douleur, l’anxiété et le réflexe nociceptif de flexion en réponse à des stimulations électriques ont été mesurés avant, pendant et après l’application d’un sac de glace. Les résultats suggèrent que les attentes a priori prédisent l’amplitude de l’analgésie, tandis que les attentes suggérées parviennent à potentialiser ou à bloquer les mécanismes endogènes d'inhibition de la douleur déclenchés par la contre-stimulation, indépendamment du niveau d’anxiété. Ensuite, une étude clinique se penche sur l'apport des attentes aux issues thérapeutiques de patients traités en centres multidisciplinaires de gestion de la douleur chronique. Préalablement au traitement, les attentes des patients quant aux résultats anticipés après six mois de traitement ont été évaluées. Les changements dans l’intensité douloureuse, les symptômes dépressifs, l’interférence de la douleur et la dramatisation face à la douleur, ainsi que l’impression de changement et la satisfaction face au traitement ont été évalués au suivi de six mois. Les résultats d'analyses de modélisation par équations structurelles appuient la relation prédictive entre les attentes et les issues thérapeutiques et soulignent l’impression de changement du patient comme variable médiatrice de cette association. En plus de se montrer supérieur à un modèle alternatif, ce modèle s'est avéré pertinent à travers différents sous-groupes. Dans l'ensemble, cette thèse contribue à démontrer le rôle déterminant des attentes dans le contexte de la douleur, tant au niveau physiologique que thérapeutique. Les conclusions qui se dégagent de cet ouvrage entraînent des retombées non négligeables et réitèrent la nécessité de considérer la perspective du patient afin d'optimiser les soins destinés au soulagement de la douleur.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Partout dans le monde, des tribunaux empruntent l’autoroute de l’information et choisissent le dépôt électronique comme moyen de faire évoluer les systèmes judiciaires. Certains tribunaux canadiens ont rallié le mouvement, mais la plupart se contentent pour l’instant d’observer, risquant de se voir claquer au nez la porte du cybermonde. Les obstacles invoqués sont divers et vont du manque d’argent et de ressources techniques à l’absence d’une masse critique de dépôts justifiant l’investissement initial nécessaire pour faire entrer le tribunal au XXIe siècle. La Cour fédérale, la Cour suprême et quelques partenaires du secteur privé étudient un modèle de nature à éliminer certains de ces obstacles, qui permettrait de numériser l’information qui circule entre les parties à un litige, leurs avocats et les tribunaux, grâce à la technologie sécurisée de l’Internet, fondée sur le Web. Le présent rapport expose la perspective des praticiens et énonce les avantages, les difficultés et les risques associés au modèle.
Resumo:
"Des spécialistes de la Cour suprême du Canada et de la Cour fédérale du Canada, Bill MURRAY et Gary PINDER, ont entrepris d’explorer les moyens par lesquels ces institutions pourraient prendre le virage vers l’électronique pour leurs échanges et leur gestion de l’information. Deux projets ont initialement été présentés au programme Gouvernement en direct. Ces projets ont progressivement convergés jusqu’au point de n’en former qu’un seul, celui décrit dans le « Document de travail : Modèle de fournisseur de services de dépôt électronique ». Un document, avertissent ses auteurs, qui ne vise pas l’endossement d’un modèle particulier, mais plutôt l’identification des voies par lesquelles un système cohérent de dépôt électronique pourrait être mis en place au Canada. D'emblée, quatre éléments du modèle proposé apparaissent particulièrement remarquables : il offre un cadre d’ensemble plutôt qu’un projet isolé ; il s’appuie sur l’utilisation de normes techniques, « Standard as Key Enabler » écrivent-ils ; il met à profit l’entreprise privée, un partenaire capable de trouver les marchés et de les développer ; il prévoit enfin, et ce n’est pas le moindre de ses mérites, la création d’un environnement compétitif pour le dépôt électronique. Selon nous, la voie qu’ils ont tracée peut être empruntée. Ce n’est pas dire qu’il faille accepter, tels quels, tous les éléments du projet sans examiner d’autres orientations ou poursuivre certaines réflexions. Mais, dans l’ensemble, la direction est juste et nous devrions nous y engager. Nous avons choisi de suggérer des orientations, et elles convergent presque toujours avec celles adoptées par les auteurs du document de travail. Nous ne mentionnons ici que la plus centrale d’entre elles. Le projet de mettre en place un système cohérent de dépôt électronique confirme s’il était nécessaire le besoin maintes fois ressenti d’un conseil canadien de l’information juridique. Un tel conseil pourrait mener des consultations et procéder à l’adoption des normes techniques qui manquent aujourd’hui cruellement au monde juridique canadien. Le présent projet et la réflexion qu’il nous impose nous offrent peut-être l’occasion de nous doter de cet outil qui non seulement pourrait clarifier le cadre du dépôt électronique, mais aussi d’élaborer les autres normes et lignes de conduite nécessaires à notre domaine. Il reste à inviter la magistrature à examiner attentivement le projet avancé par MURRAY et PINDER. Il esquisse une approche audacieuse et nouvelle pour que nos institutions judiciaires évoluent vers une utilisation encore plus efficiente des nouveaux moyens technologiques. L’influence et l’appui éclairé de la magistrature sont essentiels au démarrage d’un tel projet. D’autres aussi auront à examiner les mérites du modèle proposé, notamment les responsables administratifs des grandes institutions judiciaires canadiennes, nous sommes certains qu’ils sauront eux aussi reconnaître les possibilités que recèle ce projet."
Resumo:
Introduction: En réponse aux exigences du gouvernement fédéral en ce qui concerne les temps d'attente pour les chirurgies électives d’hanche et du genou, les Organismes Canadiens de santé ont adopté des stratégies de gestion pour les listes d'attente. Cependant, il n'existe pas actuellement aucune information disponible concernant les effets imprévus, positive ou négative, de ces stratégies. Méthodologie: Un modèle qui a été construit est tombé en panne la gestion de la chirurgie d’hanche et du genou en différentes étapes, afin d'identifier les effets imprévus possibles pour chaque étape; le modèle a été validé auprès d'un panel d'experts. Cette étude a choisi quatre études de cas en fonction de leur durabilité: un cas qui a été durable, un cas qui a été modérément durable, et deux cas peu probable d'être durable. Dans cette étude qualitative, nous avons mené 31 entretiens semi-structurés entre Novembre 2010 et Juin 2011 avec les gestionnaires, les infirmières, les thérapeutes et les chirurgiens impliqués dans la gestion des stratégies du temps d’attente pour les chirurgies électives d’hanche et du genou. Les quatre cas ont été sélectionnés à partir de trois provinces / régions. Nous avons analysé les conséquences non intentionnelles aux niveaux systémique et organisationnelle en utilisant les stratégies dans chaque contexte. Enregistrements des entrevues ont été transcrits mot à mot et soumis à l'analyse du cadre. Résultats: Les effets négatifs sont la précarité des stratégies en raison du non-récurrente financement, l'anxiété chez les patients qui ne sont pas prêts pour la chirurgie, une redistribution du temps de chirurgie vers l’orthopédie au détriment des autres interventions chirurgicales, tensions entre les chirurgiens et entre les orthopédistes et anesthésistes, et la pression sur le personnel dans le bloc opératoire et postopératoire. Conclusion: La stratégie d’implémentation aux niveaux national et local devrait prendre en compte les conséquences potentielles, positives et négatives. Il y a des conséquences inattendues à chaque niveau de l'organisation des soins de santé. Individuellement et collectivement, ces conséquences peuvent positivement et négativement affecter les résultats. Par conséquent, la planification de la santé doit analyser et prendre en compte les conséquences inattendues en termes de bonnes résultats inattendues, compromis et les conséquences négatives afin d'améliorer les résultats.
Resumo:
La plupart des conditions détectées par le dépistage néonatal sont reliées à l'une des enzymes qui dégradent les acyls-CoA mitochondriaux. Le rôle physiopathologique des acyls-CoA dans ces maladies est peu connue, en partie parce que les esters liés au CoA sont intracellulaires et les échantillons tissulaires de patients humains ne sont généralement pas disponibles. Nous avons créé une modèle animal murin de l'une de ces maladies, la déficience en 3-hydroxy-3-methylglutaryl-CoA lyase (HL), dans le foie (souris HLLKO). HL est la dernière enzyme de la cétogenèse et de la dégradation de la leucine. Une déficience chronique en HL et les crises métaboliques aigües, produisent chacune un portrait anormal et distinct d'acyls-CoA hépatiques. Ces profils ne sont pas prévisibles à partir des niveaux d'acides organiques urinaires et d'acylcarnitines plasmatiques. La cétogenèse est indétectable dans les hépatocytes HLLKO. Dans les mitochondries HLLKO isolées, le dégagement de 14CO2 à partir du [2-14C]pyruvate a diminué en présence de 2-ketoisocaproate (KIC), un métabolite de la leucine. Au test de tolérance au pyruvate, une mesure de la gluconéogenèse, les souris HLLKO ne présentent pas la réponse hyperglycémique normale. L'hyperammoniémie et l'hypoglycémie, des signes classiques de plusieurs erreurs innées du métabolisme (EIM) des acyls-CoA, surviennent de façon spontanée chez des souris HLLKO et sont inductibles par l'administration de KIC. Une charge en KIC augmente le niveau d'acyls-CoA reliés à la leucine et diminue le niveau d'acétyl-CoA. Les mitochondries des hépatocytes des souris HLLKO traitées avec KIC présentent un gonflement marqué. L'hyperammoniémie des souris HLLKO répond au traitement par l'acide N-carbamyl-L-glutamique. Ce composé permet de contourner une enzyme acétyl-CoA-dépendante essentielle pour l’uréogenèse, le N-acétylglutamate synthase. Ceci démontre un mécanisme d’hyperammoniémie lié aux acyls-CoA. Dans une deuxième EIM des acyls-CoA, la souris SCADD, déficiente en déshydrogénase des acyls-CoA à chaînes courtes. Le profil des acyls-CoA hépatiques montre un niveau élevé du butyryl-CoA particulièrement après un jeûne et après une charge en triglycérides à chaîne moyenne précurseurs du butyryl-CoA.
Resumo:
Les immunoglobulines intraveineuses (IVIg) constituent une préparation polyclonale d’IgG isolée et regroupée à partir du plasma sanguin de multiples donneurs. Initialement utilisé comme traitement de remplacement chez les patients souffrant d’immunodéficience primaire ou secondaire, les IVIg sont maintenant largement utilisées dans le traitement de plusieurs conditions auto-immunes, allergiques ou inflammatoires à une dose élevée, dite immunomodulatrice. Différents mécanismes d’action ont été postulés au fil des années pour expliquer l’effet thérapeutique des IVIg dans les maladies auto-immunes et inflammatoires. Entre autre, un nombre grandissant de données issues de modèles expérimentaux chez l’animal et l’humain suggère que les IVIg induisent l’expansion et augmentent l’action suppressive des cellules T régulatrices (Tregs), par un mécanisme qui demeure encore inconnu. Également, les patients atteints de maladies auto-immunes ou inflammatoires présentent souvent un nombre abaissé de Tregs par rapport aux individus sains. Ainsi, une meilleure compréhension des mécanismes par lesquels les IVIg modulent les cellules T régulatrices est requise afin de permettre un usage plus rationnel de ce produit sanguin en tant qu’alternative thérapeutique dans le traitement des maladies auto-immunes et inflammatoires. Par le biais d’un modèle expérimental d’allergie respiratoire induite par un allergène, nous avons démontré que les IVIg diminuaient significativement l’inflammation au niveau des voies aériennes ce, en association avec une différenciation des Tregs à partir des cellules T non régulatrices du tissu pulmonaire. Nous avons également démontré qu’au sein de notre modèle expérimental, l’effet anti-inflammatoire des IVIg était dépendant des cellules dendritiques CD11c+ (CDs) pulmonaires, puisque cet effet pouvait être complètement reproduit par le transfert adoptif de CDs provenant de souris préalablement traitées par les IVIg. À cet effet, il est déjà établi que les IVIg peuvent moduler l’activation et les propriétés des CDs pour favoriser la tolérance immunitaire et que ces cellules seraient cruciales pour l’induction périphérique des Tregs. C’est pourquoi, nous avons cherché à mieux comprendre comment les IVIg exercent leur effet sur ces cellules. Pour la première fois, nous avons démontré que la fraction d’IgG riche en acide sialique (SA-IVIg) (constituant 2-5% de l’ensemble des IgG des donneurs) interagit avec un récepteur dendritique inhibiteur de type lectine C (DCIR) et active une cascade de signalement intracellulaire initiée par la phosphorylation du motif ITIM qui est responsable des changements observés en faveur de la tolérance immunitaire auprès des cellules dendritiques et des Tregs. L’activité anti-inflammatoire de la composante SA-IVIg a déjà été décrite dans des études antérieures, mais encore une fois le mécanisme par lequel ce traitement modifie la fonction des CDs n’a pas été établi. Nous avons finalement démontré que le récepteur DCIR facilite l’internalisation des molécules d’IgG liées au récepteur et que cette étape est cruciale pour permettre l’induction périphérique des Tregs. En tant que produit sanguin, les IVIg constitue un traitement précieux qui existe en quantité limitée. La caractérisation des mécanismes d’action des IVIg permettra une meilleure utilisation de ce traitement dans un vaste éventail de pathologies auto-immunes et inflammatoires.
Resumo:
Les vies de millions de personnes sont dévastées par des désastres naturels à travers le monde. Les écrits scientifiques relatifs aux efforts humanitaires dans ces contextes ciblent les travailleurs humanitaires sans toutefois les différencier quant à leur appartenance disciplinaire ou à l’organisation qui les emploie. Les connaissances liées à la pratique des infirmières dans le contexte d’urgence humanitaire sont limitées, malgré qu’elles jouent un rôle vital auprès des populations touchées. Cette ethnographie focalisée, guidée par la théorie du caring bureaucratique de Ray (1989) répond à la question de recherche: Comment des infirmières ayant participé à une mission humanitaire d’urgence suite au séisme à Haïti en janvier 2010 au sein de l’organisation Médecins Sans Frontières décrivent-elles leur pratique dans les contextes légal, politique, économique, éducationnel, socioculturel, physique et technologique de cette expérience? Des entrevues semi-structurées en profondeur de 90 minutes ont été menées auprès de quatre participantes qui ont également échangé à propos de photographies prises durant leurs missions. Les participantes ont discuté de leur préparation, de leurs objectifs, des rôles qu’elles assumaient, ainsi que des défis rencontrés au retour de leurs missions. Des facteurs inhérents à l’infirmière et à l’organisation ont émergé comme importants pour l’articulation et la délimitation de leur pratique. Cette étude révèle également que des facteurs contextuels importants, soit l’équipe, le temps, l’environnement physique, la médiatisation, la sécurité, ainsi que les conditions de travail et les contextes sociopolitique et culturel avaient une influence sur la pratique. Les participantes, selon leur évaluation de ces contextes et des besoins immédiats, devaient constamment ajuster leur pratique. Cette recherche permet une meilleure compréhension de la pratique d’infirmières dans un contexte d’urgence humanitaire de laquelle découlent des implications pour la pratique, la formation et la recherche.
Resumo:
Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.