992 resultados para Maximal Discernibleness


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’explosion récente du nombre de centenaires dans les pays à faible mortalité n’est pas étrangère à la multiplication des études portant sur la longévité, et plus spécifiquement sur ses déterminants et ses répercussions. Alors que certains tentent de découvrir les gènes pouvant être responsables de la longévité extrême, d’autres s’interrogent sur l’impact social, économique et politique du vieillissement de la population et de l’augmentation de l’espérance de vie ou encore, sur l’existence d’une limite biologique à la vie humaine. Dans le cadre de cette thèse, nous analysons la situation démographique des centenaires québécois depuis le début du 20e siècle à partir de données agrégées (données de recensement, statistiques de l’état civil, estimations de population). Dans un deuxième temps, nous évaluons la qualité des données québécoises aux grands âges à partir d’une liste nominative des décès de centenaires des générations 1870-1894. Nous nous intéressons entre autres aux trajectoires de mortalité au-delà de cent ans. Finalement, nous analysons la survie des frères, sœurs et parents d’un échantillon de semi-supercentenaires (105 ans et plus) nés entre 1890 et 1900 afin de se prononcer sur la composante familiale de la longévité. Cette thèse se compose de trois articles. Dans le cadre du premier, nous traitons de l’évolution du nombre de centenaires au Québec depuis les années 1920. Sur la base d’indicateurs démographiques tels le ratio de centenaires, les probabilités de survie et l’âge maximal moyen au décès, nous mettons en lumière les progrès remarquables qui ont été réalisés en matière de survie aux grands âges. Nous procédons également à la décomposition des facteurs responsables de l’augmentation du nombre de centenaires au Québec. Ainsi, au sein des facteurs identifiés, l’augmentation de la probabilité de survie de 80 à 100 ans s’inscrit comme principal déterminant de l’accroissement du nombre de centenaires québécois. Le deuxième article traite de la validation des âges au décès des centenaires des générations 1870-1894 d’origine canadienne-française et de confession catholique nés et décédés au Québec. Au terme de ce processus de validation, nous pouvons affirmer que les données québécoises aux grands âges sont d’excellente qualité. Les trajectoires de mortalité des centenaires basées sur les données brutes s’avèrent donc représentatives de la réalité. L’évolution des quotients de mortalité à partir de 100 ans témoigne de la décélération de la mortalité. Autant chez les hommes que chez les femmes, les quotients de mortalité plafonnent aux alentours de 45%. Finalement, dans le cadre du troisième article, nous nous intéressons à la composante familiale de la longévité. Nous comparons la survie des frères, sœurs et parents des semi-supercentenaires décédés entre 1995 et 2004 à celle de leurs cohortes de naissance respectives. Les différences de survie entre les frères, sœurs et parents des semi-supercentenaires sous observation et leur génération « contrôle » s’avèrent statistiquement significatives à un seuil de 0,01%. De plus, les frères, sœurs, pères et mères des semi-supercentenaires ont entre 1,7 (sœurs) et 3 fois (mères) plus de chance d’atteindre 90 ans que les membres de leur cohorte de naissance correspondante. Ainsi, au terme de ces analyses, il ne fait nul doute que la longévité se concentre au sein de certaines familles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé. Le mémoire s’intéresse à l’émergence historique de la coopération économique régionale comme forme non-hégémonique de coopération. Nous y proposons une approche alternative au problème de l’origine de la coopération systémique, par rapport à la conception d’origine hégémonique de la coopération systémique, propre aux théories néolibérale et néoréaliste. Plutôt que par le biais des théories du marché, l’origine de la coopération est approchée par le biais des processus caractérisant l’anarchie-même tel le processus de construction anarchique des formes de guerre. Et plus spécifiquement, des formes de guerre dont l’usage soumet la structure anarchique à des contraintes extrêmes, mettant celle-ci en crise, exemplifiée par la chute de la puissance hégémonique, la fin d’un système hégémonique et le début de coopération systémique non-hégémonique, de nature plus régionale et économique. En privilégiant l’approche historique, nous insistons notamment sur l’impact critique du commerce au loin et du crédit international dans la construction par la structure anarchique des formes de guerre que la puissance hégémonique ne peut plus supporter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Effet positif de la N-acétylcystéine sur la dysfonction endothéliale des artères coronaires épicardiques associée à une hypertrophie ventriculaire gauche dans un modèle porcin A. A. HORN, M-C AUBIN, YF SHI, J-C TARDIF, M. CARRIER , L. P. PERRAULT INSTITUT DE CARDIOLOGIE DE MONTRÉAL, MONTRÉAL, CANADA, Objectif : Il a été démontré dans le laboratoire que dans notre modèle d’hypertrophie ventriculaire gauche, la dysfonction endothéliale est secondaire à une diminution de la biodisponibilité du NO, celle-ci étant causée par une augmentation du stress oxydant tel que démontré par Malo et al. (2003) et Aubin et al. (2006). Le but de la présente étude est d’étudier l’effet d’un traitement chronique de la N-acétylcystéine (NAC) (un antioxydant) sur la dysfonction endothéliale associée à une hypertrophie ventriculaire gauche (HVG). Méthodologie: L’HVG a été induite par cerclage aortique (CA) chez vingt-et-un porcelets âgés de deux mois qui furent divisés aléatoirement en quatre groupes expérimentaux. Le groupe témoin (groupe 1) a été soumis à une thoracotomie antérolatérale gauche sans cerclage aortique (n=3). Le groupe 2 a été soumis à un cerclage aortique pour une période de 60 jours (n=6). Le groupe 3 a subi un cerclage aortique et a reçu un traitement oral de N-acétylcystéine de 1000 mg/jour per os pendant 60 jours commençant le jour de la chirurgie (n=6). Le groupe 4 a été soumis à un cerclage aortique et a reçu un traitement oral de N-acétylcystéine : 1000 mg/par jour pendant 30 jours commençant le jour 30 (post-chirurgie) (n=6). L’hypertrophie fut évaluée par échocardiographie. La réactivité vasculaire fut étudiée à l’aide de chambres d’organes par la construction des courbes concentration-réponse à la sérotonine (5-HT: relaxations induites par les récepteurs 5-HT1D, couplés aux protéines Gi) et à la bradykinine (BK: relaxations induites par les récepteurs B2, couplés aux protéines Gq). Les quantités de nitrites/nitrates et la production basale de GMPc ont été mesurées pour évaluer la fonction endothéliale. Le stress oxydant a été étudié en quantifiant les concentrations plasmatiques d’hydroperoxydes lipidiques et de glutathion réduit, ainsi que l’activité plasmatique des enzymes antioxydantes peroxydase du glutathion et dismutase du superoxyde. Résultats: Le rapport masse ventricule gauche/masse corporelle était significativement plus élevé pour le groupe 2 comparativement au groupe 1 (p<0,05) confirmant la présence d’une HVG. Le développement de l’HVG dans le groupe 3 a pu être prévenu par la NAC et sa progression fut atténuée dans le groupe 4 (p<0,05 versus groupe 2). La présence de la dysfonction endothéliale a été confirmée chez le groupe 2, tel qu’illustré par une diminution significative des relaxations maximales à la 5-HT et à la BK comparativement au groupe témoin. Le traitement à la NAC a significativement potentialisé les relaxations maximales (p<0,05) induites par la sérotonine et par la bradykinine, chez les deux groupes traités. Cette amélioration des relaxations dépendantes de l’endothélium peut être la conséquence d’une augmentation significative (p<0,05) de la biodisponibilité du monoxyde d’azote pour les cellules musculaires lisses, tel que suggéré par l’augmentation du ratio nitrites/nitrates et de la production basale de GMPc chez les groupes 3 et 4 comparativement au groupe 2. Cette augmentation du facteur relaxant peut résulter d’une augmentation de sa production par les cellules endothéliales ou d’une diminution de sa neutralisation par les espèces réactives oxygénées. De fait, les concentrations d’hydroperoxydes lipidiques étaient significativement inférieures (p<0,05) et associées à une augmentation des concentrations de l’antioxydant glutathion réduit et de l’activité de la peroxydase du glutathion chez les deux groupes traités par rapport au groupe 2. Conclusion: Le traitement à la NAC prévient le développement de la dysfonction endothéliale coronaire ainsi que l’HVG qui lui est associée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a des indications que les nanocristaux de silicium (nc-Si) présentent un gain optique qui est potentiellement assez grand pour permettre l'amplification optique dans la gamme de longueurs d'ondes où une photoluminescence (PL) intense est mesurée (600- 1000 nm). Afin de fabriquer des cavités optiques, nous avons implantés des morceaux de silice fondue avec des ions de Si pour former une couche de nc-Si d'une épaisseur d'environ 1 μm. Le Si a été implanté à quatre énergies comprises entre 1 MeV et 1,9 MeV de manière à obtenir une concentration atomique de Si en excès variant entre 25% et 30%. Les pièces ont été flanquées de miroirs diélectriques composés de filtres interférentiels multicouches. Sur une plage de longueurs d'ondes d'environ 200 nm de large, un filtre réfléchit près de 100%, alors que l'autre a une réflexion moyenne d'environ 90%. Nous avons mesuré et comparé les spectres de PL de trois échantillons: le premier sans miroir, le second avec des filtres réfléchissant autour de 765 nm (entre 700 nm et 830 nm), et la troisième avec des filtres agissant autour de 875 nm (entre 810 nm et 940 nm). Lorsque les échantillons sont excités avec un laser pulsé à 390 nm, des mesures de photoluminescence résolue dans le temps (PLT) révèlent des taux de décroissance plus rapides en présence de miroirs dans le domaine de longueurs d'onde où ceux-ci agissent comparé aux échantillons sans miroirs. Aussi, l'intensité PL en fonction de la fluence d'excitation montre une augmentation plus rapide de la présence de miroirs, même si celle-ci reste sous-linéaire. Nous concluons que de l'émission stimulée pourrait être présente dans la cavité optique, mais sans dominer les autres mécanismes d'émission et de pertes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face aux données conflictuelles de la littérature sur le VO2 requis d’exercices de boxe (sparring, palettes de frappe et sac de frappe), surtout pour le “vrai” sparring avec coups de poings au visage, une nouvelle méthode basée sur une mesure de VO2 “post-exercice” fut développée, validée (Annexe 1) et utilisée pour ré-évaluer le coût énergétique de ces exercices de boxe. Neufs boxeurs mâles expérimentés, de 22.0±3.5 ans et 71.4±10.9 kg avec un VO2pic de 62.2±4.1 ml·kg-1·min-1 (moyenne ± écart type) furent mesurés lors 1) d’un test progressif maximal sur tapis roulant en laboratoire 2) d’un entrainement standardisé de boxe en gymnase et 3) d’exercices de boxe standardisés en laboratoire. Des VO2 requis de 43.4±5.9, 41.1±5.1, 24.7±6.1, 30.4±5.8 et 38.3±6.5 ml·kg-1·min-1, respectivement obtenues pour le sparring, les palettes de frappe et le sac de frappe à 60, 120 et 180 coup·min-1, situe l’intensité de ces exercices autour de ~70 %VO2pic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons récemment démontré que les espèces réactives oxygénées induisent une augmentation de l’expression des protéines Giα dans les cellules du muscle lisse vasculaire (CMLV) provenant d’aortes de rats spontanément hypertendus (SHR, de l’anglais spontaneously hypertensive rats). La présente étude a pour but d’étudier les effets du peroxyde d’hydrogène (H2O2), un oxydant qui induit le stress oxydatif, sur l’expression de Giα et sur l’activité de l’adénylate cyclase, et d’explorer les voies de signalisation sous-jacentes responsables de cette réponse. Nos résultats montrent que H2O2 induit une augmentation de l’expression des protéines Giα-2 et Giα-3 de manière dose- et temps-dépendante avec une augmentation maximale de 40-50% à 100 µM après 1 heure, sans affecter l’expression de Gsα. L’expression des protéines Giα a été maintenue au niveau normal en presence de AG 1478, AG1295, PD98059 et la wortmannine, des inhibiteurs d’EGF-R (de l’anglais epidermal growth factor receptor), PDGFR-β (de l’anglais platelet-derived growth factor receptor β), de la voie de signalisation ras-ERK1/2 (de l’anglais extracellular regulated kinase1/2), et de la voie de la PI3Kinase-AKT (de l’anglais phosphatidyl inositol-3 kinase), respectivement. En outre, le traitement des CMLV avec H2O2 a induit une augmentation du degré de phosphorylation d’EGF-R, PDGF-R, ERK1/2 et AKT; et cette expression a été maintenue au niveau témoin par leurs inhibiteurs respectifs. Les inhibiteurs d’EGF-R et PDGF-R ont aussi induit une diminution du degré de phosphorylation de ERK1/2, et AKT/PKB. En outre, la transfection des cellules avec le siRNA (de l’anglais, small interfering ribonucleic acid) de EGF-R et PDGFR-β a atténué la surexpression des protéines Giα-2 et Giα-3 induite par le traitement au H2O2. La surexpression des protéines Giα induite par H2O2 a été corrélée avec une augmentation de la fonction de la protéine Giα. L’inhibition de l’activité de l’adénylate cyclase par de faibles concentrations de GTPγS après stimulation par la forskoline a augmenté de 20% dans les cellules traitées au H2O2. En outre, le traitement des CMLV au H2O2 a aussi accru l’inhibition de l’activité de l’adénylate cyclase par les hormones inhibitrices telles que l’angiotensine II, oxotrémorine et C-ANP4-23. D’autre part, la stimulation de l’adénylate cyclase induite par GTPγS, glucagon, isoprotérénol, forskoline, et le fluorure de sodium (NaF) a été atténuée de façon significative dans les cellules traitées au H2O2. Ces résultats suggèrent que H2O2 induit la surexpression des protéines Giα-2 and Giα-3 via la transactivation des récepteurs des facteurs de croissance EGF-R, PDGFR-β et l’activation des voies de signalisation ras-ERK1/2 et PI3K-AKT Mot-cles: Protéines Giα, peroxyde d’hydrogène, stress oxydant, récepteurs des facteurs de croissance, MAP kinases, adénylate cyclase, hypertension

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’habenula, un noyau épithalamique, est située au centre de la voie dorsale diencéphalique. Cette voie relie les structures limbiques et les ganglions de la base aux cellules monoaminergiques du mésencéphale. En particulier, l’habenula latérale (HbL) projette directement aux cellules dopaminergiques et GABAergiques de l’aire tegmentale ventrale (ATV). L’ATV est le site d’origine de la voie mésolimbique dopaminergique, une voie impliquée de façon cruciale dans la manifestation des comportements dirigés. L’importance de cette projection habenulaire pour le comportement demeure encore méconnue. Ainsi, l’objectif de cette étude est d’approfondir notre compréhension du rôle de régulation de l’HbL sur les comportements dépendants de la neurotransmission dopaminergique. MATÉRIEL ET MÉTHODES: Des rats adultes mâles Sprague-Dawley ont été anesthésiés avec de l’isofluorane et installés sur un appareil stéréotaxique. L’acide iboténique, une neurotoxine agoniste des récepteurs glutamatergiques, était infusée bilatéralement dans l’HbL (0,25 μg/0,25 μl/côté). Les rats du groupe contrôle recevaient des infusions NaCl 0,9%. Les rats de l’expérience d’autostimulation intracérébrale (ASIC) étaient aussi implantés d’une électrode monopolaire dans le mésencéphale postérieur. Un groupe de rats était testé pour leur réponse de locomotion à l’amphétamine (0; 0,5 ou 1 mg/kg, intrapéritonéal), dix jours suivant la lésion de l’HbL. La locomotion était mesurée dans des chambres d’activité, chacune équipée de deux faisceaux parallèles infrarouges. Le jour du test, les rats étaient pesés et placés dans la chambre d’activité puis leur activité locomotrice de base était mesurée pendant une heure. Les rats recevaient ensuite une dose d’amphétamine ou le véhicule (NaCl 0,9%) par voie intrapéritonéale et l’activité locomotrice était mesurée pendant deux heures supplémentaires. Un groupe de rats distinct a été utilisé dans l’expérience d’ASIC. Commençant sept jours suivant la lésion, les rats étaient entraînés à appuyer sur un levier afin de s’autoadministrer des stimulations électriques, au cours de sessions quotidiennes. Nous avons ensuite mesuré chacun des taux de réponses d’une série de stimulations aux fréquences décroissantes. À partir d’une courbe réponses-fréquences, le seuil de récompense était inféré par la fréquence de la stimulation nécessaire pour produire une réponse semi-maximale. Les seuils de récompense étaient stabilisés à un niveau similaire pour l’ensemble des rats. Enfin, l’effet sur la récompense de l’amphétamine était testé aux mêmes doses employées pour l’expérience de locomotion. RÉSULTATS: Une lésion neurotoxique de l’HbL n’a pas altéré les niveaux de base de l’activité locomotrice dans chaque groupe. Cependant, une telle lésion a potentialisé l’effet de locomotion de l’amphétamine (1 mg/kg) pendant la première heure suivant son administration, et une tendance similaire était observable pendant la seconde heure. À l’inverse, nous n’avons observé aucune interaction entre une lésion à l’HbL et l’effet amplificateur sur la récompense de l’amphétamine. CONCLUSION: Nos résultats révèlent une importante contribution fonctionnelle de l’HbL à la locomotion induite par l’activation de la voie mésolimbique dopaminergique avec une dose de 1 mg/kg d’amphétamine. À l’opposé, aucun effet sur la récompense n’a été observé. Ces résultats suggèrent que l’activation psychomotrice et l’amplifiation de la récompense produite par l’amphétamine dépendent de substrats dissociables, chacun étant différentiellement sensible à la modulation provenant de l’HbL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’optimisation de l’exercice par intervalles de haute intensité (EIHI) chez les patients insuffisants cardiaques (IC) n’a jamais été étudiée auparavant. Nous avons comparé les réponses cardio-pulmonaires aiguës lors de 4 différents EIHI dans le but de trouver le protocole optimisé chez les patients IC. Les patients IC étaient aléatoirement alloués à 4 sessions d’EIHI. Chaque phase d’exercice était à une intensité de 100% de la puissance aérobie maximale (PAM), mais de différentes durées (30s ou 90s) et de type de récupération (passive ou active). Chaque protocole d’EIHI durait un maximum de 30 minutes ou jusqu’à épuisement. Considérant le temps total d’exercice, l’adhérence, une perception d’effort moins élevée, le confort du patient ainsi que des temps similaires passés à un haut pourcentage du VO2pic, le mode avec intervalles courts (30s) et récupération passive s’est avéré être le protocole d’EIHI optimisé chez ces patients. Suite à cette étude, nous avons voulu comparer les réponses cardio-pulmonaires aiguës d’un exercice continu d’intensité modéré (ECIM) par rapport à celles de l’EIHI optimisé de dépense énergétique équivalente chez les patients IC. L’objectif de cette étude était de comparer les réponses cardio-pulmonaires, l’adhérence, la perception de l’effort, l’inflammation et les biomarqueurs cardiaques. Comparativement à l’ECIM, l’adhérence, l’efficience et la tolérance étaient plus élevées lors de l’EIHI optimisé chez les patients IC tout en produisant un stimulus physiologique important. L’EIHI n’a causé aucune arythmie significative ou d’effets délétères sur l’inflammation (CRP), le BNP et la nécrose myocardique (C-TnT) chez les patients IC. L’EIHI semble être un mode d’exercice prometteur et devrait être considéré lors de la réadaptation cardiaque chez les patients IC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude avait comme objectif d’évaluer la coagulation par l’utilisation de la thrombélastographie (TEG®) et de la génération de thrombine (GT) chez des beagles en santé recevant de la prednisone ainsi que chez des chiens atteints d’hyperadrénocorticisme (HAC). Dans un premier temps, six beagles adultes en santé ont été évalués dans une étude prospective longitudinale au courant de laquelle chaque individu recevait 1 mg/kg/jour de prednisone par la voie orale pendant 2 semaines. Après un arrêt de traitement d’une durée de 6 semaines, ils ont finalement reçu 4 mg/kg/jour de prednisone pour encore 2 semaines. Les tracés TEG® et les mesures de la GT ont été obtenus au temps 0, à la fin des 6 semaines d’interruption de traitement, ainsi qu’à la suite des 2 dosages de prednisone. Suite aux 2 traitements avec la prednisone, des résultats significatifs,lorsque comparés aux valeurs de base, ont été obtenus pour la cinétique du caillot (« clot kinetics » ou K), l’angle alpha (α) et l’amplitude maximale (« maximal amplitude » ou MA). La GT avait augmenté de manière significative mais seulement après la dose de 1 mg/kg/jour de prednisone. Dans un deuxième temps, 16 chiens atteints d’HAC ont été évalués avant l’initiation d’un traitement pour leur condition. Quinze chiens ont été évalués par TEG® et 15 par GT. Les données obtenues ont ensuite été comparées aux valeurs normales. L’analyse par TEG® a démontré que 12/15 chiens avaient au moins un paramètre suggérant un état d’hypercoagulabilité. L’analyse par GT a démontré que 4/15 chiens avaient des changements compatibles avec un état d’hypercoagulabilité. Un test t-pairé pour des valeurs de variance inégales a démontré que le groupe de chiens atteints d’HAC avait des tracés hypercoagulables et un potentiel endogène de thrombine (« endogenous thrombin potential » ou ETP) plus élevé, lorsque comparé à la population de référence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.