991 resultados para common bile duct calcul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le diabète de type 1 (DT1) est une maladie complexe qui requiert une implication importante des patients pour contrôler leur glycémie et ainsi prévenir les complications et comorbidités. L’activité physique (AP) régulière et une attention constante pour les glucides ingérés sont des adjuvants essentiels au traitement insulinique. Nous avons démontré que le questionnaire BAPAD-1, spécifiquement développé pour des adultes atteints de DT1, est un outil valide (validité prédictive, fiabilité interne et reproductibilité) pour définir des barrières associées à l’AP. Bien que le niveau de barrières envers l’AP soit faible, la crainte de l’hypoglycémie est la barrière la plus importante chez cette population. L’adoption d’un mode de vie actif est associée à un profil corporel favorable. Les adultes, avec un DT1 et non diabétique, qui maintiennent un bon niveau d’AP, soit un ratio entre la dépense énergétique totale et celle au repos ≥ 1.7, ont une masse grasse, un indice de masse corporelle et un tour de taille significativement inférieurs à ceux d’adultes moins actifs. Le niveau d’AP peut être estimé au moyen d’un moniteur d’AP comme le SenseWear Armband™. Afin de compléter les études de validation de cet outil, nous avons évalué et démontré la reproductibilité des mesures. Toutefois, la dépense énergétique est sous-estimée durant les 10 premières minutes d’une AP d’intensité modérée sur ergocycle. L’utilisation de cet appareil est donc justifiée pour une évaluation de la dépense énergétique sur de longues périodes. Le calcul des glucides est une méthode largement utilisée pour évaluer la quantité d’insuline à injecter lors des repas. Nous avons évalué dans un contexte de vie courante, sans révision de la technique, la précision des patients pour ce calcul. L’erreur moyenne est de 15,4 ± 7,8 g par repas, soit 20,9 ± 9,7 % du contenu glucidique. L’erreur moyenne est positivement associée à de plus grandes fluctuations glycémiques mesurées via un lecteur de glucose en continu. Une révision régulière du calcul des glucides est probablement nécessaire pour permettre un meilleur contrôle glycémique. Nous avons développé et testé lors d’un essai clinique randomisé contrôlé un programme de promotion de l’AP (PEP-1). Ce programme de 12 semaines inclut une séance hebdomadaire en groupe ayant pour but d’initier l’AP, d’établir des objectifs et d’outiller les adultes atteints de DT1 quant à la gestion de la glycémie à l’AP. Bien que n’ayant pas permis d’augmenter la dépense énergétique, le programme a permis un maintien du niveau d’AP et une amélioration de la condition cardio-respiratoire et de la pression artérielle. À la fin du programme, une plus grande proportion de patients connaissait la pharmacocinétique de l’insuline et une plus grande variété de méthodes pour contrer l’hypoglycémie associée à l’AP était utilisée. En conclusion, le diabète de type 1 engendre des défis quotidiens particuliers. D’une part, le calcul des glucides est une tâche complexe et son imprécision est associée aux fluctuations glycémiques quotidiennes. D’autre part, l’adoption d’un mode de vie actif, qui est associée à un meilleur profil de composition corporelle, est limitée par la crainte des hypoglycémies. Le programme PEP-1 offre un support pour intégrer l’AP dans les habitudes de vie des adultes avec un DT1 et ainsi améliorer certains facteurs de risque cardio-vasculaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction : La Fibrose Kystique (FK) est la maladie autosomique récessive la plus fréquente chez les Caucasiens et est due à une mutation du gène Cystic Fibrosis Transmembrane Regulator (CFTR), codant pour un canal chlore. La principale mutation est la délétion de l'acide aminé phénylalanine en position 508. En raison de l’augmentation de l'espérance de vie, de nouvelles complications telles que le diabète associé à la FK (DAFK) ont vu le jour. Le DAFK semble principalement dû à un défaut de sécrétion d'insuline. Des études ont montré que les femmes et les personnes homozygotes ΔF508 ont un risque plus élevé de développer le DAFK. Objectifs : Comparer la sécrétion d'insuline entre les hommes et les femmes FK selon leur génotype CFTR. Notre hypothèse était que les femmes FK présentaient une sécrétion d'insuline moins élevée que des hommes. Méthodes : Deux cents sujets adultes sans diabète connu ont été recrutés dans la clinique de FK du CHUM et inclus dans cette étude. Cent seize ont été revus après un suivi de 24 ± 10 mois. Leur génotype CFTR a été extrait à partir des dossiers médicaux. Tous les sujets ont subi une hyperglycémie provoquée par voie orale de 2-h (HGPO) afin de déterminer leur tolérance au glucose : normale (NGT), intolérance (IGT) ou DAFK. Des échantillons de sang ont été prélevés aux temps 0, 30, 60, 90, et 120 min de l’HGPO. À partir de ces derniers, la sécrétion d'insuline et la sensibilité à l’insuline des sujets ont été évaluées en utilisant les indices de Stumvoll et les aires sous la courbe de l’insuline durant l’HGPO. Résultats : Pour une excursion glycémique comparable, il y avait des différences significatives dans les concentrations d'insuline entre les hommes et les femmes et selon le génotype CFTR. Ainsi, les femmes et les sujets hétérozygotes avaient des concentrations d’insuline plus élevées que les hommes et les sujets homozygotes. Cela restait significatif quelle que soit leur tolérance au glucose. Le calcul du disposition index représentant la sécrétion d'insuline ajustée pour le degré de sensibilité à l’insuline a suggéré une sécrétion d'insuline plus élevée chez les femmes que les hommes. Le suivi prospectif nous a permis de déterminer que cette sécrétion plus élevée d’insuline était associée à une évolution plus favorable pour la tolérance au glucose. Fait intéressant, cette constatation n'était vraie que pour les femmes. Conclusion : Dans une vaste cohorte prospective observationnelle de patients FK sans diabète connu, nous avons démontré qu’en dépit d’un âge et d’une fonction pulmonaire semblables, les femmes présentaient une sécrétion d'insuline supérieure à celle des hommes et que cela pourrait avoir un effet protecteur, à court terme, chez celles-ci pour le développement du DAFK.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème d'intersection d'automates consiste à vérifier si plusieurs automates finis déterministes acceptent un mot en commun. Celui-ci est connu PSPACE-complet (resp. NL-complet) lorsque le nombre d'automates n'est pas borné (resp. borné par une constante). Dans ce mémoire, nous étudions la complexité du problème d'intersection d'automates pour plusieurs types de langages et d'automates tels les langages unaires, les automates à groupe (abélien), les langages commutatifs et les langages finis. Nous considérons plus particulièrement le cas où chacun des automates possède au plus un ou deux états finaux. Ces restrictions permettent d'établir des liens avec certains problèmes algébriques et d'obtenir une classification intéressante de problèmes d'intersection d'automates à l'intérieur de la classe P. Nous terminons notre étude en considérant brièvement le cas où le nombre d'automates est fixé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de cette recherche est de démontrer que les décisions arbitrales de la Chambre de commerce internationale peuvent être considérées comme une source potentielle de droit au Canada. Il existe actuellement une incertitude quant au droit matériel utilisé en arbitrage international pour résoudre les différends commerciaux. Bien que l’utilisation de la lex mercatoria pour résoudre un litige soit une option, elle se heurte à de nombreuses incertitudes terminologiques et conceptuelles. L’utilisation d’une approche méthodologique de la lex mercatoria permettrait une classification de ses sources en deux branches: (1) le droit statutaire international et (2) le stare decisis des tribunaux d’arbitrage commercial international. Une telle approche méthodologique conférerait plus de certitude quant à l’application d’un droit uniforme. De plus, elle faciliterait l’étude de l’interlégalité entre les règles de la lex mercatoria et le droit matériel interne. Plus particulièrement, elle permet de comparer les similitudes et les différences des règles du droit matériel entre les décisions arbitrales internationales, le droit statutaire international et les juridictions canadiennes de common law et de droit civil. Cette comparaison rend possible une évaluation de l’influence potentielle des décisions arbitrales de la Chambre de commerce internationale sur le droit matériel canadien et si cette influence est plus importante en droit civil ou en common law.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La vidéosurveillance a pour objectif principal de protéger les personnes et les biens en détectant tout comportement anormal. Ceci ne serait possible sans la détection de mouvement dans l’image. Ce processus complexe se base le plus souvent sur une opération de soustraction de l’arrière-plan statique d’une scène sur l’image. Mais il se trouve qu’en vidéosurveillance, des caméras sont souvent en mouvement, engendrant ainsi, un changement significatif de l’arrière-plan; la soustraction de l’arrière-plan devient alors problématique. Nous proposons dans ce travail, une méthode de détection de mouvement et particulièrement de chutes qui s’affranchit de la soustraction de l’arrière-plan et exploite la rotation de la caméra dans la détection du mouvement en utilisant le calcul homographique. Nos résultats sur des données synthétiques et réelles démontrent la faisabilité de cette approche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous envisageons le cas d'une ressource naturelle renouvelable exploitée en commun par des firmes qui se concurrencent à la fois dans le marché du produit et dans l'exploitation de la ressource. Nous montrons que l'introduction de la moindre différence de coûts entre les firmes peut avoir un effet drastique sur la nature de l' équilibre, à comparer avec le cas de coûts identiques. Pour ce faire, nous prenons comme point de référence un équilibre de Nash markovien parfait qui existe dans le cas de firmes identiques et qui a la propriété que les firmes jouent une stratégie linéaire jusqu'à une borne supérieure endogène du stock et la stratégie correspondant à l' équilibre de Cournot statique au-delà de cette borne. Après avoir montré qu'un équilibre de cette nature n'est pas soutenable avec des coûts asymétriques, nous proposons une caractérisation complète d'un équilibre de Nash markovien parfait au jeu différentiel correspondant à ce cas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Généralement, dans les situations d’hypothèses multiples on cherche à rejeter toutes les hypothèses ou bien une seule d’entre d’elles. Depuis quelques temps on voit apparaître le besoin de répondre à la question : « Peut-on rejeter au moins r hypothèses ? ». Toutefois, les outils statisques pour répondre à cette question sont rares dans la littérature. Nous avons donc entrepris de développer les formules générales de puissance pour les procédures les plus utilisées, soit celles de Bonferroni, de Hochberg et de Holm. Nous avons développé un package R pour le calcul de la taille échantilonnalle pour les tests à hypothèses multiples (multiple endpoints), où l’on désire qu’au moins r des m hypothèses soient significatives. Nous nous limitons au cas où toutes les variables sont continues et nous présentons quatre situations différentes qui dépendent de la structure de la matrice de variance-covariance des données.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet article traite des règles de preuve dans un contexte électronique, et souligne les différences et similitudes entre les systèmes retenus par les provinces de common law et de droit civil. Il présente certains principes généraux, ainsi qu’un bref survol du droit de la preuve face à l’avènement de l’immatériel. Il englobe une analyse des règles d’admissibilité de la preuve telles que la règle de la meilleure preuve, et l’exception au ouï-dire, ainsi que la force probante des documents électroniques. Il envisage, enfin une application pratique, soit la signature électronique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.