995 resultados para Potentiel membranaire de repos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The study of maturation and spawning of the oyster is part of a research program to investigate the summer mortalities of the oysters, Crassostrea gigas in Marennes-Oléron Bay. Four maturity stages were simultaneously obtained by diet and thermal conditioning (immature, low maturation, mature and post-spawning stages). Measurements of clearance, filtration, absorption and respiration rates allowed a calculation of the scope for growth and hence an estimation of the oyster's energetic budget at various maturity stages. Male and female oysters had similar physiological responses. The filtration rate ranged from 2.4 to 2.6 1.h(-1) at the early stages of maturation and decreased to 1.8 1.h.' during the maturity stage. Growth rate resulting from gonad development did not induce filtration rate changes. Mature 2.5 and 1.5-year-old oysters showed a negative energy budget reaching -15 and -90 J.h(-1) respectively. By contrast, non-ripe oysters had scope for growth in the range 110 to 170 J.h(-1). A negative energy budget during the high maturation stage resulted from a reduced absorption efficiency. A new allometric relationship for the respiration model of C. gigas was defined during vitellogenesis with a 0.574 coefficient value. Based on Our results, the oyster's physiological weakness during vitellogenesis should be considered as a part of explanation for spring and summer mortalities of cultured oysters in Marennes-Oléron Bay.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The study of sexual maturation and spawning in the Pacific oyster (Crassostrea gigas) is part of a vast research programme that endeavours to understand the causes of mortality that occur sporadically during the spring and summer seasons in the Marennes-Oléron Bay. Thermal and diet conditioning were used to obtain oysters at each stage of maturity simultaneously. Using the measured rates of clearance, consumption, absorption and respiration provided estimates of growth potential and gave the energetic budget of oysters at different stages of sexual maturity. Physiological responses were similar for males and females. Filtration decreased from 2.4 to 2.6 l.h (-1) to 1.8 l.h (-1) with increasing maturity. Weight gain was associated with gonad development and did not appear to have an effect on the clearance rate. Oysters 2.5 years old showed a negative energy budget (-15 J h (-1)) at later maturity stages. This deficit was confirmed (90 J.h (-1)) in oysters 1.5 years old at the same stage of maturity. On the contrary, immature oysters, in the early stages of maturity or post-spawning, had a growth potential of 110 to 170 J.h (-1). The energy deficit observed at later stages of maturity was primarily due to absorption, which decreased sharply during peak gametogenesis. Using measured respiration rates, an allometric relationship specific to gonad growth was determined with a coefficient of 0.574. Low physiological performance of oysters, observed at later stages of sexual maturity, must be taken into account in research on the factors responsible for spring and summer mortalities affecting oyster farms in Marennes-Oléron.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protéine de liaison aux facteurs de croissance analogues à l’insuline (IGFBP)-2 est une protéine circulante fortement associée à la résistance à l’insuline qui module les effets métaboliques d’IGF-I et IGF-II en s’y associant directement, et qui exerce aussi des actions IGF-indépendantes via sa liaison à la matrice extracellulaire et aux intégrines. Chez l’homme, de faibles niveaux d’IGFBP-2 sont associés à un profil lipidique délétère, ainsi qu’à une augmentation de la masse grasse et de la résistance à l’insuline. Les travaux décrits dans cette thèse montrent chez l’humain et la souris que les niveaux d’IGFBP-2 sont associés de manière indépendante aux composantes du risque cardiométabolique. Chez l’homme, de faibles niveaux d’IGFBP-2 sont associés à la dyslipidémie athérogène. Une valeur seuil d’IGFBP-2 de 221.5 ng/mL a permis de discriminer entre les sujets métaboliquement sains et ceux répondant aux critères du syndrome métabolique. En plus de son association avec la résistance à l’insuline et les composantes du profil lipidique, de faibles niveaux d’IGFBP-2 sont associés à une fonction cardiaque diminuée chez les patients atteints de sténose aortique, tel qu’évaluée par le volume d’éjection indexé, un indice de fonction global du ventricule gauche qui intègre la fonction pompe et le remodelage du tissu. Chez l’homme, des niveaux d’IGFBP-2 élevés sont associés à un tissu adipeux brun plus volumineux ainsi qu’à une activité métabolique plus importante de ce dernier. Ces observations, telles qu’évaluées par PET/CT, sont aussi validées chez les souris surexprimant la forme humaine d’IGFBP-2. Nos travaux démontrent que les niveaux d’IGFBP-2 sont fortement associés au métabolisme des lipoprotéines et des lipides, à la fonction cardiaque ainsi qu’à l’activité du tissu adipeux brun. L’influence des niveaux d’IGFBP-2 par différentes altérations métaboliques menant à l’augmentation du risque cardiométabolique pourrait faire de ce dernier un biomarqueur précoce et intégrateur. Les travaux exposés dans la présente thèse soulignent aussi un rôle mécanistique potentiel pour IGFBP-2 dans la protection contre certaines altérations du métabolisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis l'année 1960, jusqu'au début des années '90, une institution financière, dite coopérative, s'est imposée sur le marché au Québec, accumulant durant cette période près de un milliard et demi de dollars (1 500 000 000,00 $) d'actifs. Presque jusqu'à sa "mort" coopérative, elle a connu des taux de croissance atteignant soixante pourcent (60%) par année. Beaucoup de personnes ont perdu des sommes importantes dans cette galère. L'image des coopératives en a pris pour son rhume et n'eût été du Mouvement Desjardins, nous doutons fort que la coopération aujourd'hui encore bénéficierait des mêmes appuis! Cette institution financière se nomme : le mouvement des caisses d'entraide économique. Pour éviter une situation semblable dans l'avenir, nous croyons pertinent de faire un retour dans le passé et d'analyser les comportements que ces caisses privilégiaient. À la lecture de ce travail, certains seront surpris de connaître les méthodes utilisées par elles et, à notre avis, le peu de dimension coopérative qu'on apportait avec les membres. Leur "faillite technique" en '81 a obligé le Gouvernement du Québec à réagir en conséquence. C'est alors que fut créé au Ministère des Institutions Financières un service d'inspection opérant avec des règles et des suivis relativement élaborés. On se rappelle qu'à cette époque aussi plusieurs banques à charte canadiennes ont connu des problèmes financiers majeurs, nécessitant l'intervention de l'État fédéral. Il a donc fallu des situations critiques avant qu'on apporte les correctifs requis, et cela même si le gouvernement de l'époque savait par un rapport secret depuis 1978, l'existence d'un problème potentiel! En 1979, alors que nous étions à l'emploi du Mouvement Desjardins, nous nous sommes intéressés à leurs techniques de ventes et à leur fonctionnement parce que certains dirigeants, gestionnaires et recruteurs des Caisses d'Entraide Économique laissaient courir le bruit que leur réseau était regroupé avec le Mouvement Desjardins, et aussi parce que leur agressivité causait des saignées de fonds très importantes dans les caisses populaires. On profitait ainsi de la grande crédibilité et confiance accordées à Desjardins pour accroître les ventes de leurs plans d'épargne. En collaboration avec certaines fédérations, nous avons compilé plusieurs informations pour fins d'analyse et de compréhension de leur système. Peu de temps après le début de ce travail, des problèmes majeurs au niveau de la liquidité, de la sécurité des fonds et de privilèges accordés à certains de leurs membres ont été soulevés au réseau TVA. Dès lors, étant donné la précarité de leur système financier, les membres n'avaient plus accès à leurs épargnes. La confiance en cette institution financière fut détruite presque sur le coup. […]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce document présente le processus de mise en oeuvre du plan d'aménagement du quartier Parc Extension à Montréal auquel j'ai activement participé. Initiée et planifiée en 2000, la démarche sera couronnée en 2003. L'objectif de cette initiative est de procurer aux intervenants publics, communautaires et privés un outil servant de cadre de référence afin de mieux cerner les priorités et enjeux locaux. Nous croyons qu'un tel outil suscitera l'avènement de partenariats intéressants à court, moyen et long termes, au bénéfice des résidents et résidentes du quartier. Dans un premier temps nous soulignons les caractéristiques spécifiques de Parc Extension afin de mieux saisir l'état de la situation locale. Cette compréhension devrait ensuite être facilitée par la présentation du profil des acteurs du milieu. Ces deux sections permettent au lecteur de se familiariser avec la dynamique présente. Dans un deuxième temps, nous présentons la démarche globale de l'élaboration du plan d'aménagement. Nous verrons tout d'abord l'historique et la description du processus, puis quels sont les objectifs poursuivis. Enfin nous pourrons lire le résumé-synthèse du plan, qui demeure temporaire puisqu'il s'agit d'un document de travail à ce jour. Dans la section suivante, nous approfondissons la démonstration des retombées d'un tel plan en prenant le cas de l'habitation. En effet, nous y verrons quel est le portrait de la situation, quelles instances s'activent en la matière, ce qui se fait présentement et ce qui est proposé pour l'avenir. Le thème de l'habitation illustre concrètement la pertinence d'une concertation dans l'identification des priorités. L'expression de cette concertation se traduit par des consensus menant à des actions et projets sur le terrain. Des résultats intéressants sont obtenus. Nous poursuivons alors avec les aspects théoriques. A cette étape, nous abordons la question de l'évaluation ultérieure dans le futur par la proposition d'indicateurs. Ceux-ci permettraient de mieux cerner les résultats et impacts dans quelques armées. Nous analysons également le potentiel de transférabilité de l'expérience envers d'autres milieux. Finalement, sur une note plus personnelle, je décris mes savoirs faire et savoirs être développés au cours de ce projet. Je tente une auto-analyse de mes points forts et à améliorer. Un résumé critique de l'ensemble de l'expérience vient compléter l'essai. En conclusion, nous rappelons les avantages du plan d'aménagement et un bilan des avancées franchies à ce jour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Le surpoids et l’obésité dans la population pédiatrique sont des préoccupations grandissantes à l’échelle mondiale. Actuellement, au Canada, près de 21 % des jeunes Canadiens âgés de 2 à 5 ans présentent un surpoids et malheureusement, 6 % d’entre eux souffrent d’obésité. De plus, 80 % de ces enfants risquent d’être obèses à l’âge adulte, ce qui mène à plusieurs impacts sur la santé. Afin de prévenir l’obésité infantile, il est important d’identifier des facteurs de risques, notamment ceux se produisant tôt dans la vie. Plusieurs études ont démontré l’importance de l’environnement fœtal dans l’établissement de la santé métabolique à long terme. Le poids à la naissance a souvent été utilisé comme marqueur de l’exposition prénatale. Cependant, le poids à la naissance n’est qu’un marqueur grossier. L’adiposité à la naissance a été identifiée comme un facteur de risque plus important puisqu’elle permet de prédire de l’adiposité durant l’enfance. Les deux déterminants maternels majeurs de la croissance fœtale sont le statut pondéral et la glycémie maternelle. Récemment, une adipokine a été suggérée comme un déterminant potentiel dans la programmation fœtale de l’obésité. La leptine, qui est produite par les adipocytes, joue un rôle important dans la balance énergétique, mais elle semble aussi importante dans le développement de l’obésité postnatale. Durant la grossesse, le placenta produit une large quantité de leptine et la majorité est sécrétée du côté maternel. Appuyés par le fait que la leptine maternelle circulante est le reflet de la sécrétion placentaire de leptine, nous avons émis l’hypothèse que la leptine maternelle serait associée à l’adiposité du nouveau-né, et ce, indépendamment de la glycémie maternelle. Nous avons étudié la leptine durant l’hyperglycémie provoquée par voie orale (HGPO) chez les femmes enceintes au 2e trimestre. Nous avons montré, chez les femmes en surpoids ou obèse, qu’une plus haute leptine maternelle était lié à une adiposité néonatale augmentée à la naissance. D’un autre côté, chez les femmes minces, une glycémie élevée était liée à une adiposité néonatale augmentée. Ces associations sont indépendantes de la parité, du statut tabagique, du gain de poids durant la grossesse, des triglycérides maternels, du mode d’accouchement, du sexe du nouveau-né et de l’âge gestationnel à la naissance. Ces résultats suggèrent une régulation différentielle entre ces deux marqueurs métaboliques maternels et l’adiposité néonatale, selon le statut pondéral pré-grossesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent document constitue une réflexion sur de nouvelles avenues d'une philosophie coopérative, tablant sur le potentiel du secteur informel par le biais du développement des micro-entreprises. La connaissance des lois de fonctionnement du secteur informel jettera une compréhension plus nuancée sur le rôle de la micro-entreprise dans les pays en voie de développement et son aptitude à s'articuler autour du mode coopératif comme agent socio-économique. Cette réflexion se veut le prolongement de la réorientation de politique du Ministère des relations extérieures que Mme Monique Vézina annonça le 13 juin '86. "On ne peut pas faire de l'aide au développement international sans passer par la base." et "...Le maître d'œuvre de tout projet de développement sur le terrain, c'est le conseil du village, le paysan, ou le petit entrepreneur. Notre philosophie s'appuie sur le dynamisme des populations

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le béton conventionnel (BC) a de nombreux problèmes tels que la corrosion de l’acier d'armature et les faibles résistances des constructions en béton. Par conséquent, la plupart des structures fabriquées avec du BC exigent une maintenance fréquent. Le béton fibré à ultra-hautes performances (BFUP) peut être conçu pour éliminer certaines des faiblesses caractéristiques du BC. Le BFUP est défini à travers le monde comme un béton ayant des propriétés mécaniques, de ductilité et de durabilité supérieures. Le BFUP classique comprend entre 800 kg/m³ et 1000 kg/m³ de ciment, de 25 à 35% massique (%m) de fumée de silice (FS), de 0 à 40%m de poudre de quartz (PQ) et 110-140%m de sable de quartz (SQ) (les pourcentages massiques sont basés sur la masse totale en ciment des mélanges). Le BFUP contient des fibres d'acier pour améliorer sa ductilité et sa résistance aux efforts de traction. Les quantités importantes de ciment utilisées pour produire un BFUP affectent non seulement les coûts de production et la consommation de ressources naturelles comme le calcaire, l'argile, le charbon et l'énergie électrique, mais affectent également négativement les dommages sur l'environnement en raison de la production substantielle de gaz à effet de serre dont le gas carbonique (CO[indice inférieur 2]). Par ailleurs, la distribution granulométrique du ciment présente des vides microscopiques qui peuvent être remplis avec des matières plus fines telles que la FS. Par contre, une grande quantité de FS est nécessaire pour combler ces vides uniquement avec de la FS (25 à 30%m du ciment) ce qui engendre des coûts élevés puisqu’il s’agit d’une ressource limitée. Aussi, la FS diminue de manière significative l’ouvrabilité des BFUP en raison de sa surface spécifique Blaine élevée. L’utilisation du PQ et du SQ est également coûteuse et consomme des ressources naturelles importantes. D’ailleurs, les PQ et SQ sont considérés comme des obstacles pour l’utilisation des BFUP à grande échelle dans le marché du béton, car ils ne parviennent pas à satisfaire les exigences environnementales. D’ailleurs, un rapport d'Environnement Canada stipule que le quartz provoque des dommages environnementaux immédiats et à long terme en raison de son effet biologique. Le BFUP est généralement vendu sur le marché comme un produit préemballé, ce qui limite les modifications de conception par l'utilisateur. Il est normalement transporté sur de longues distances, contrairement aux composantes des BC. Ceci contribue également à la génération de gaz à effet de serre et conduit à un coût plus élevé du produit final. Par conséquent, il existe le besoin de développer d’autres matériaux disponibles localement ayant des fonctions similaires pour remplacer partiellement ou totalement la fumée de silice, le sable de quartz ou la poudre de quartz, et donc de réduire la teneur en ciment dans BFUP, tout en ayant des propriétés comparables ou meilleures. De grandes quantités de déchets verre ne peuvent pas être recyclées en raison de leur fragilité, de leur couleur, ou des coûts élevés de recyclage. La plupart des déchets de verre vont dans les sites d'enfouissement, ce qui est indésirable puisqu’il s’agit d’un matériau non biodégradable et donc moins respectueux de l'environnement. Au cours des dernières années, des études ont été réalisées afin d’utiliser des déchets de verre comme ajout cimentaire alternatif (ACA) ou comme granulats ultrafins dans le béton, en fonction de la distribution granulométrique et de la composition chimique de ceux-ci. Cette thèse présente un nouveau type de béton écologique à base de déchets de verre à ultra-hautes performances (BEVUP) développé à l'Université de Sherbrooke. Les bétons ont été conçus à l’aide de déchets verre de particules de tailles variées et de l’optimisation granulaire de la des matrices granulaires et cimentaires. Les BEVUP peuvent être conçus avec une quantité réduite de ciment (400 à 800 kg/m³), de FS (50 à 220 kg/m³), de PQ (0 à 400 kg/m³), et de SQ (0-1200 kg/m³), tout en intégrant divers produits de déchets de verre: du sable de verre (SV) (0-1200 kg/m³) ayant un diamètre moyen (d[indice inférieur 50]) de 275 µm, une grande quantité de poudre de verre (PV) (200-700 kg/m³) ayant un d50 de 11 µm, une teneur modérée de poudre de verre fine (PVF) (50-200 kg/m³) avec d[indice inférieur] 50 de 3,8 µm. Le BEVUP contient également des fibres d'acier (pour augmenter la résistance à la traction et améliorer la ductilité), du superplastifiants (10-60 kg/m³) ainsi qu’un rapport eau-liant (E/L) aussi bas que celui de BFUP. Le remplacement du ciment et des particules de FS avec des particules de verre non-absorbantes et lisse améliore la rhéologie des BEVUP. De plus, l’utilisation de la PVF en remplacement de la FS réduit la surface spécifique totale nette d’un mélange de FS et de PVF. Puisque la surface spécifique nette des particules diminue, la quantité d’eau nécessaire pour lubrifier les surfaces des particules est moindre, ce qui permet d’obtenir un affaissement supérieur pour un même E/L. Aussi, l'utilisation de déchets de verre dans le béton abaisse la chaleur cumulative d'hydratation, ce qui contribue à minimiser le retrait de fissuration potentiel. En fonction de la composition des BEVUP et de la température de cure, ce type de béton peut atteindre des résistances à la compression allant de 130 à 230 MPa, des résistances à la flexion supérieures à 20 MPa, des résistances à la traction supérieure à 10 MPa et un module d'élasticité supérieur à 40 GPa. Les performances mécaniques de BEVUP sont améliorées grâce à la réactivité du verre amorphe, à l'optimisation granulométrique et la densification des mélanges. Les produits de déchets de verre dans les BEVUP ont un comportement pouzzolanique et réagissent avec la portlandite générée par l'hydratation du ciment. Cependant, ceci n’est pas le cas avec le sable de quartz ni la poudre de quartz dans le BFUP classique, qui réagissent à la température élevée de 400 °C. L'addition des déchets de verre améliore la densification de l'interface entre les particules. Les particules de déchets de verre ont une grande rigidité, ce qui augmente le module d'élasticité du béton. Le BEVUP a également une très bonne durabilité. Sa porosité capillaire est très faible, et le matériau est extrêmement résistant à la pénétration d’ions chlorure (≈ 8 coulombs). Sa résistance à l'abrasion (indice de pertes volumiques) est inférieure à 1,3. Le BEVUP ne subit pratiquement aucune détérioration aux cycles de gel-dégel, même après 1000 cycles. Après une évaluation des BEVUP en laboratoire, une mise à l'échelle a été réalisée avec un malaxeur de béton industriel et une validation en chantier avec de la construction de deux passerelles. Les propriétés mécaniques supérieures des BEVUP a permis de concevoir les passerelles avec des sections réduites d’environ de 60% par rapport aux sections faites de BC. Le BEVUP offre plusieurs avantages économiques et environnementaux. Il réduit le coût de production et l’empreinte carbone des structures construites de béton fibré à ultra-hautes performances (BFUP) classique, en utilisant des matériaux disponibles localement. Il réduit les émissions de CO[indice inférieur 2] associées à la production de clinkers de ciment (50% de remplacement du ciment) et utilise efficacement les ressources naturelles. De plus, la production de BEVUP permet de réduire les quantités de déchets de verre stockés ou mis en décharge qui causent des problèmes environnementaux et pourrait permettre de sauver des millions de dollars qui pourraient être dépensés dans le traitement de ces déchets. Enfin, il offre une solution alternative aux entreprises de construction dans la production de BFUP à moindre coût.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette étude est d’expliquer les différences entre le lexique enregistré par les dictionnaires et le lexique potentiel. On estime que le nombre des mots du vocabulaire de la langue maternelle varie de 20.000 à 150.000; la plupart des estimations oscillant autour de 50.000. Puisque le rôle du contexte, dans lequel les mots acquièrent de nouvelles significations, semble fondamental, l'auteure se propose d’observer les relations entre le lexique et l’univers extralinguistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Chaque année, les épidémies saisonnières d’influenza causent de 3 à 5 millions de cas sévères de maladie, entraînant entre 250 000 et 500 000 décès mondialement. Seulement deux classes d’antiviraux sont actuellement commercialisées pour traiter cette infection respiratoire : les inhibiteurs de la neuraminidase, tels que l’oseltamivir (Tamiflu) et les inhibiteurs du canal ionique M2 (adamantanes). Toutefois, leur utilisation est limitée par l’apparition rapide de résistance virale. Il est donc d’un grand intérêt de développer de nouvelles stratégies thérapeutiques pour le traitement de l’influenza. Le virus influenza dépend de l’activation de sa protéine de surface hémagglutinine (HA) pour être infectieux. L’activation a lieu par clivage protéolytique au sein d’une séquence d’acides aminés conservée. Ce clivage doit être effectué par une enzyme de l’hôte, étant donné que le génome du virus ne code pour aucune protéase. Pour les virus infectant l’humain, plusieurs études ont montré le potentiel de protéases à sérine transmembranaires de type II (TTSP) à promouvoir la réplication virale : TMPRSS2, TMPRSS4, HAT, MSPL, Desc1 et matriptase, identifiée récemment par notre équipe (Beaulieu, Gravel et al., 2013), activent l’HA des virus influenza A (principalement H1N1 et H3N2). Toutefois, il existe peu d’information sur le clivage de l’HA des virus influenza B, et seulement TMPRSS2 et HAT ont été identifiées comme étant capables d’activer ce type de virus. Les travaux de ce projet de maîtrise visaient à identifier d’autres TTSP pouvant activer l’HA de l’influenza B. L’efficacité de clivage par la matriptase, hepsine, HAT et Desc1 a été étudiée et comparée entre ces TTSP. Ces quatre protéases s’avèrent capables de cliver l’HA de l’influenza B in vitro. Cependant, seul le clivage par matriptase, hepsine et HAT promeut la réplication virale. De plus, ces TTSP peuvent aussi supporter la réplication de virus influenza A. Ainsi, l’utilisation d’un inhibiteur de TTSP, développé en collaboration avec notre laboratoire, permet de bloquer significativement la réplication virale dans les cellules épithéliales bronchiques humaines Calu-3. Cet inhibiteur se lie de façon covalente et lentement réversible au site actif de la TTSP par un mécanisme slow tight-binding. Puisque cet inhibiteur cible une composante de la cellule hôte, et non une protéine virale, il n’entraîne pas le développement de résistance après 15 passages des virus en présence de l’inhibiteur dans les cellules Calu-3. L’inhibition des TTSP activatrices d’HA dans le système respiratoire humain représente donc une nouvelle stratégie thérapeutique pouvant mener au développement d’antiviraux efficaces contre l’influenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Le syndrome d’aspiration méconiale (SAM) est une pathologie respiratoire du nouveau-né qui, dans les cas les plus sévères, peut rester réfractaire aux traitements couramment utilisés et nécessiter in fine le recours à une oxygénation membranaire extracorporelle. Le développement d’un ventilateur liquidien par l’équipe Inolivent a ouvert une nouvelle voie thérapeutique en rendant possible l’utilisation de la ventilation liquidienne totale (VLT) qui utilise un perfluorocarbone liquide afin d’assurer les échanges gazeux tout en effectuant un lavage pulmonaire thérapeutique. En 2011, l’équipe Inolivent a montré la supériorité de la VLT pour retirer le méconium et assurer les échanges gazeux de façon plus efficace que le traitement contrôle, le lavage thérapeutique avec une solution diluée de surfactant exogène (S-LBA). À ce jour, il n’a jamais été montré la possibilité de ramener des agneaux en respiration spontanée au décours d’une VLT pour le traitement d’un SAM sévère. Les objectifs de cette étude sont i) montrer la possibilité de ramener des agneaux nouveau-nés en respiration spontanée sans aide respiratoire après le traitement d’un SAM sévère par VLT, ii) comparer l’efficacité avec le lavage par S-LBA. Méthodes : 12 agneaux nouveau-nés anesthésiés et curarisés ont été instrumentés chirurgicalement. Après l’induction d’un SAM sévère, les agneaux ont subi un lavage pulmonaire thérapeutique soit par VLT (n = 6) ou par S-LBA (n = 6). Les agneaux ont été sevrés de toute ventilation mécanique et suivit en respiration spontanée durant 36 h. Résultats : Il est possible de ramener en respiration spontanée des agneaux nouveau-nés traités par VLT pour le traitement d’un SAM sévère. Le temps nécessaire au sevrage de la ventilation mécanique conventionelle a été plus court chez le groupe S-LBA. Conclusion : Notre étude met en lumière pour la première fois connue à ce jour, la possibilité de ramener en respiration spontanée des agneaux nouveau-nés suivant une VLT dans le traitement d’un SAM sévère. Ces résultats très importants ouvrent la voie à des études sur l’utilisation de la VLT dans le traitement de détresses respiratoires aigües.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le caribou de Peary, désigné en voie de disparition, n’est pas épargné par les changements climatiques. Par le passé, des hivers successifs caractérisés par des conditions météorologiques extrêmes ont entrainé des déclins importants de population en quelques années, pouvant aller jusqu’à 98 %. L’augmentation des épisodes de redoux hivernaux et de pluies sur neige réduit les conditions d’accès à la nourriture de cette sous-espèce. Ces conditions ont pour conséquence d’augmenter la densité des couches de neige dans le manteau neigeux, ce qui empêche le caribou d’avoir accès au fourrage couvrant le sol en hiver. Dans cet esprit, l’outil de spatialisation de SNOWPACK dans l’Arctique (OSSA) développé dans Ouellet et al. (2016) permet la spatialisation des conditions d’accès à la nourriture du caribou de Peary en utilisant le modèle de simulation du couvert nival SNOWPACK. Le paramètre du couvert nival utilisé est l’épaisseur cumulée au-delà d’un seuil fixe de densité durant la saison hivernale (ECD). L'OSSA fournit un résultat d’une résolution spatiale de 32 km puisque les données météorologiques utilisées sont les données de réanalyses du North American Regional Reanalysis (NARR) qui possède une résolution de 32 km. Cette résolution grossière ne permet pas de documenter et prédire la migration locale des différentes populations sur les îles de l'archipel arctique canadien. L’objectif principal de ce projet est donc d’évaluer le potentiel d'une approche de raffinement spatial de l'OSSA à une résolution de 1 km. Afin d’affiner la résolution spatiale de la simulation de l’ECD, des données de pente et de l’albédo du sol à une résolution de 1 km ont été utilisées. Avant d’effectuer les simulations à haute résolution, la sensibilité de l’ECD à ces deux paramètres du terrain a été testée. Les simulations préliminaires ont permis de démontrer que plus la pente est élevée, plus l’ECD sera faible. Également, il a été identifié que la pente va affecter l’ECD à partir d’un seuil de 3 degré. L’albédo du sol a aussi un impact significatif sur l’ECD, mais à un niveau moins important que la pente. Finalement, la comparaison des résultats à faible et haute résolution a pu démontrer que l’approche de raffinement spatial appliquée permet d’obtenir une information plus détaillée des conditions d’accès à la nourriture du caribou de Peary. Les résultats d’ECD obtenus à 1 km de résolution montrent des écarts avec l’ECD à 32 km de résolution pouvant dépasser les 2000 cm. Finalement, cette étude montre l’intérêt d’automatiser cette approche afin de pouvoir spatialiser les conditions d’accès à la nourriture à une résolution de 1 km et de prédire certaines micro-variabilités dans les déplacements futurs des caribous de Peary en fonction des changements climatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à l’augmentation observée des accidents de régénération en forêt boréale et leur impact sur la productivité et la résilience des peuplements denses d’épinette noire, une meilleure compréhension des mécanismes de résilience et une surveillance des risques d’accident de régénération sont nécessaires. L’objectif principal de cette étude visait donc le développement de modèles prédictifs et spatialement explicites de la régénération de l’épinette noire. Plus particulièrement, deux modèles ont été développés soit (1) un modèle théorique, développé à l’aide de données in situ et de données spatiales et (2) un modèle cartographique, utilisant uniquement des données spatiales accessibles telles que les inventaires forestiers provinciaux et l’indice spectral de sévérité des feux « differenced Normalized Burn Ratio » (dNBR). Les résultats obtenus ont permis de constater que la succession rapprochée (< 55 ans) d’une coupe et d’un feu n’entraîne pas automatiquement une ouverture des peuplements d’épinette noire. Tout d’abord, les peuplements affectés par la coupe de récupération de brûlis (1963), immatures lors du feu de 2005, sont caractérisés par une faible régénération. En contrepartie, la régénération à la suite du feu de 2005, observé dans les peuplements coupés entre 1948 et 1967, est similaire à celle observée dans les peuplements non perturbés dans les 60 années précédant le feu. Le modèle théorique sélectionné à l’aide des critères d’information d’Akaike a, quant à lui, permis d'identifier trois variables déterminantes dans le succès ou l’échec de la régénération de l’épinette noire soit (1) la végétation potentielle, (2) le pourcentage de recouvrement du sol par les sphaignes et (3) la sévérité du feu évaluée à l’aide du dNBR. Des validations bootstrap et croisée ont permis de mettre en évidence qu’un modèle utilisant ces trois variables explique 59 % de la variabilité de la régénération observée dans le territoire d’étude., Quant à lui, le modèle cartographique qui utilise uniquement les variables végétation potentielle et dNBR explique 32 % de la variabilité. Finalement ce modèle a permis la création d’une carte de risque d’accident de régénération. Basée sur la précision du modèle, cette carte offre un potentiel intéressant afin de cibler les secteurs les plus à risque et ainsi appuyer les décisions relatives aux reboisements dans les zones incendiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis plus d’un siècle, les organisations dominent par d’imposantes structures hiérarchiques et bureaucratiques. Cependant, face aux pressions externes et à l’environnement de plus en plus complexe, certaines adoptent peu à peu des pratiques plus flexibles afin de s’adapter à ce contexte. Un modèle organisationnel se démarque particulièrement en modifiant complètement son design et sa culture. Développée par Frédéric Laloux, l’organisation Opale se base sur trois principes : l’autogouvernance, la plénitude ainsi que la raison d’être évolutive. Le modèle Opale intègre un nouveau paradigme organisationnel axé sur une vision du monde véritablement intégrée, systémique et cohésive. Face à ce renouveau, cette étude vise à comprendre l’influence de ce modèle vis-à-vis de l’intégration du développement durable. Ainsi, cet essai a permis de déterminer si les principes de durabilité sont appliqués à l’intérieur de ce modèle. En complément, l’application des principes a aussi été évaluée auprès de deux cas au Québec similaires au modèle Opale. Pour ce faire, un outil d’analyse qualitative a été développé avec l’aide de deux cadres en développement durable reconnus et largement appliqués en organisations, soit le Framework for Strategic Sustainable Development et le référentiel québécois BNQ 21000. La grille d’analyse inclut des critères à l’intérieur de quatre sphères du développement durable : gouvernance, sociale, environnementale et économique. Deux analyses distinctes ont donc été réalisées : la première porte sur le modèle Opale et l’autre traite des deux cas d’organisation comparables au modèle Opale. Suite aux évaluations, les constats sont sensiblement les mêmes. Les résultats démontrent que l’intégration se manifeste davantage dans les sphères de gouvernance et sociale, mais nettement moins à l’intérieur de celles économique et environnementale. En effet, la sphère sociale reçoit un résultat parfait et la sphère de gouvernance se démarque principalement auprès des critères d’influence et de transparence. Étant donné que l’organisation Opale est au service d’une raison d’être évolutive, la dimension économique reçoit une attention différente. En effet, chez les organisations Opales, l’économie n’est jamais une finalité en soi, mais un moyen pour réaliser leur mission. Sur le plan environnemental, on remarque que seules les initiatives qui émergent des individus permettent l’intégration de cette sphère dans les cas où celle-ci ne fait pas formellement partie de l’énoncé de mission. Enfin, suite aux résultats, des pistes de réflexion additionnelles seraient intéressantes à poursuivre. D’abord, il s’avèrerait pertinent d’explorer davantage la gouvernance interne dans l’intégration du développement durable, car son influence semble être éminente. De plus, il apparait pertinent de cibler des méthodes permettant l’intégration de façon soutenue de la sphère environnementale. D’autres discussions traitent de l’impact d’une centralisation autour de la raison d’être, des démarches permettant d’intégrer le développement durable et leur potentiel, l’ampleur d’une transition d’un modèle traditionnel à un modèle autogéré ainsi que la possibilité de combiner ces modèles.