30 resultados para Résistance à l’insuline
Resumo:
Résumé : Une dysrégulation de la lipolyse des tissus adipeux peut conduire à une surexposition des tissus non-adipeux aux acides gras non-estérifiés (AGNE), qui peut mener à un certain degré de lipotoxicité dans ces tissus. La lipotoxicité constitue, par ailleurs, l’une des causes majeures du développement de la résistance à l’insuline et du diabète de type 2. En plus de ses fonctions glucorégulatrices, l’insuline a pour fonction d’inhiber la lipolyse et donc de diminuer les niveaux d’AGNE en circulation, prévenant ainsi la lipotoxicité. Il n’y a pas d’étalon d’or pour mesurer la sensibilité de la lipolyse à l’insuline. Le clamp euglycémique hyperinsulinémique constitue la méthode étalon d’or pour évaluer la sensibilité du glucose à l’insuline mais il est aussi utilisé pour mesurer la suppression de la lipolyse par l’insuline. Par contre, cette méthode est couteuse et laborieuse, et ne peut pas s’appliquer à de grandes populations. Il existe aussi des indices pour estimer la fonction antilipolytique de l’insuline dérivés de l’hyperglycémie provoquée par voie orale (HGPO), un test moins dispendieux et plus simple à effectuer à grande échelle. Cette étude vise donc à : 1) Étudier la relation entre les indices de suppressibilité des AGNE par l’insuline dérivés du clamp et ceux dérivés de l’HGPO; et 2) Déterminer laquelle de ces mesures corrèle le mieux avec les facteurs connus comme étant reliés à la dysfonction adipeuse : paramètres anthropométriques et indices de dysfonction métabolique. Les résultats montrent que dans le groupe de sujets étudiés (n=29 femmes, 15 témoins saines et 14 femmes avec résistance à l’insuline car atteintes du syndrome des ovaires polykystiques), certains indices de sensibilité à l’insuline pour la lipolyse dérivés de l’HGPO corrèlent bien avec ceux dérivés du clamp euglycémique hyperinsulinémique. Parmi ces indices, celui qui corrèle le mieux avec les indices du clamp et les paramètres anthropométriques et de dysfonction adipeuse est le T50[indice inférieur AGNE] (temps nécessaire pour diminuer de 50% le taux de base – à jeun – des AGNE). Nos résultats suggèrent donc que l’HGPO, facile à réaliser, peut être utilisée pour évaluer la sensibilité de la lipolyse à l’insuline. Nous pensons que la lipo-résistance à l’insuline peut être facilement quantifiée en clinique humaine.
Resumo:
Le contexte de ce projet de recherche est celui de la stabilité des barrages-poids et aborde le besoin d’évaluation de la résistance de l’interface béton-rocher. Puisqu’il est techniquement difficile d’évaluer si l’interface est liée ou non, la cohésion réelle et sa contribution à la résistance au cisaillement sont souvent négligées et ce sujet précis est peu abordé dans la littérature. Un lien direct peut être fait entre cette non-considération et des travaux de stabilisation réalisés sur des ouvrages hydrauliques. Cette étude a comme objectif la caractérisation de la cohésion réelle dans le but de déterminer s’il est sécuritaire d’incorporer sa contribution dans l’évaluation de stabilité des barrages-poids. Pour ce faire, il est nécessaire d’évaluer les comportements en traction et en cisaillement de l’interface et d’analyser comment ils sont affectés par des paramètres importants telle la rugosité de l’interface. Cette caractérisation est faite à l’aide d’un programme expérimental sur 66 répliques d’interfaces béton-rocher en mortier. La rugosité est évaluée à l’aide d’un profilomètre laser et du paramètre Z2. Les répliques ont fait l’objet d’essais de traction directe, de traction par pression de fluide et de cisaillement direct. L’influence de la rugosité d’interface et de la résistance à la compression uniaxiale (UCS) des matériaux sur les résistances à la traction et au cisaillement est évaluée grâce à l’analyse des variances (ANOVA). Des essais supplémentaires ont permis d’approfondir la compréhension du mécanisme de rupture en cisaillement. Les résultats indiquent une résistance à la traction moyenne de l’interface liée de 0,62 MPa et une cohésion (en cisaillement) moyenne de 3,1 MPa. L’ANOVA montre une augmentation significative de la résistance à la traction avec la rugosité et une augmentation significative de la résistance au cisaillement au pic avec la rugosité, l’UCS et la contrainte normale. Il a aussi été observé que le pas d’échantillonnage a un impact important sur la valeur de Z2. Les résultats suggèrent qu’une valeur minimale de cohésion de 100 à 200 kPa pourrait être utilisée dans la mesure où il peut être démontré que l’interface est liée. Cette condition pourrait d’ailleurs constituer un sujet de recherche s’inscrivant dans la continuité des travaux réalisés.
Resumo:
Résumé: Chaque année, les épidémies saisonnières d’influenza causent de 3 à 5 millions de cas sévères de maladie, entraînant entre 250 000 et 500 000 décès mondialement. Seulement deux classes d’antiviraux sont actuellement commercialisées pour traiter cette infection respiratoire : les inhibiteurs de la neuraminidase, tels que l’oseltamivir (Tamiflu) et les inhibiteurs du canal ionique M2 (adamantanes). Toutefois, leur utilisation est limitée par l’apparition rapide de résistance virale. Il est donc d’un grand intérêt de développer de nouvelles stratégies thérapeutiques pour le traitement de l’influenza. Le virus influenza dépend de l’activation de sa protéine de surface hémagglutinine (HA) pour être infectieux. L’activation a lieu par clivage protéolytique au sein d’une séquence d’acides aminés conservée. Ce clivage doit être effectué par une enzyme de l’hôte, étant donné que le génome du virus ne code pour aucune protéase. Pour les virus infectant l’humain, plusieurs études ont montré le potentiel de protéases à sérine transmembranaires de type II (TTSP) à promouvoir la réplication virale : TMPRSS2, TMPRSS4, HAT, MSPL, Desc1 et matriptase, identifiée récemment par notre équipe (Beaulieu, Gravel et al., 2013), activent l’HA des virus influenza A (principalement H1N1 et H3N2). Toutefois, il existe peu d’information sur le clivage de l’HA des virus influenza B, et seulement TMPRSS2 et HAT ont été identifiées comme étant capables d’activer ce type de virus. Les travaux de ce projet de maîtrise visaient à identifier d’autres TTSP pouvant activer l’HA de l’influenza B. L’efficacité de clivage par la matriptase, hepsine, HAT et Desc1 a été étudiée et comparée entre ces TTSP. Ces quatre protéases s’avèrent capables de cliver l’HA de l’influenza B in vitro. Cependant, seul le clivage par matriptase, hepsine et HAT promeut la réplication virale. De plus, ces TTSP peuvent aussi supporter la réplication de virus influenza A. Ainsi, l’utilisation d’un inhibiteur de TTSP, développé en collaboration avec notre laboratoire, permet de bloquer significativement la réplication virale dans les cellules épithéliales bronchiques humaines Calu-3. Cet inhibiteur se lie de façon covalente et lentement réversible au site actif de la TTSP par un mécanisme slow tight-binding. Puisque cet inhibiteur cible une composante de la cellule hôte, et non une protéine virale, il n’entraîne pas le développement de résistance après 15 passages des virus en présence de l’inhibiteur dans les cellules Calu-3. L’inhibition des TTSP activatrices d’HA dans le système respiratoire humain représente donc une nouvelle stratégie thérapeutique pouvant mener au développement d’antiviraux efficaces contre l’influenza.
Resumo:
Résumé : Bien que l’hypoxie soit un puissant inducteur de l’angiogenèse, l’activation des facteurs de croissance est perturbée en hyperglycémie au niveau du pied et du cœur. Cette perturbation entraîne la perte de prolifération et de migration chez les cellules endothéliales, musculaires lisses vasculaires et péricytes empêchant la formation de nouveaux vaisseaux qui mènera à l’amputation des membres inférieurs chez les patients diabétiques. Une étude a démontré qu’une augmentation de la protéine tyrosine phosphatase Src homology-2 domain-containing phosphatase-1 (SHP-1) en condition hyperglycémique chez les péricytes entraînait l’inhibition de la signalisation du PDGF-BB, ce qui résultait en le développement d’une rétinopathie diabétique. Nous avons alors soulevé l’hypothèse que l’expression de SHP-1 dans les cellules musculaires lisses vasculaires affecte la prolifération et la migration cellulaire par l’inhibition de la signalisation de l’insuline et du PDGF-BB en condition diabétique. Nos expérimentations ont été effectuées principalement à l’aide d’une culture primaire de cellules musculaires lisses primaires provenant d’aortes bovines. Comparativement aux concentrations normales de glucose (NG : 5,6 mM), l’exposition à des concentrations élevées de glucose (HG : 25 mM) pendant 48 h a résulté en l’inhibition de la prolifération cellulaire par l’insuline et le PDGF-BB autant en normoxie (20% O2) qu’en hypoxie (24 dernières heures à 1% O2). Lors des essais de migration cellulaire, aucun effet de l’insuline n’a été observé alors que la migration par le PDGF-BB fut inhibée en HG autant en normoxie qu’en hypoxie. L’exposition en HG à mener à l’inhibition de la signalisation de la voie PI3K/Akt de l’insuline et du PDGF-BB en hypoxie. Aucune variation de l’expression de SHP-1 n’a été observée mais son activité phosphatase en hypoxie était fortement inhibée en NG contrairement en HG où on observait une augmentation de cette activité. Finalement, une association a été constatée entre SHP-1 et la sous-unité bêta du récepteur au PDGF. En conclusion, nous avons démontré que l’augmentation de l’activité phosphatase de SHP-1 en hypoxie cause l’inhibition des voies de l’insuline et du PDGF-BB réduisant les processus angiogéniques des cellules musculaires lisses vasculaires dans la maladie des artères périphériques.
Resumo:
Résumé : Cette étude examine l'impact de la taille et de la gradation de particules sur les corrélations théoriques et empiriques existantes les plus connues entre la résistance au cisaillement et le comportement dilatatant des matériaux granulaires en condition de déformation plane et en compression triaxiale drainée. À cette fin, 276 tests de cisaillements symétriques directs et 35 tests de compressions triaxiales drainées ont été menés sur des échantillons composés de billes de basalte (particules rondes), et de sables constitués de particules angulaires (sable de Péribonka et sable d'Eastmain) sur une échelle de 63 µm à 2000 µm afin d'évaluer leur résistance au cisaillement et leur comportement de dilatance sur une vaste échelle de pressions normales et de densités relatives initiales. Premièrement, la fiabilité et l'applicabilité des limites de mesure à l’aide de tests physiques de cisaillements symétriques directs dans l'interprétation de la résistance au cisaillement frictionnel en déformation plane des matériaux granulaires ont été discutées et confirmées par l'usage du code informatique DEM, SiGran. L'accent a été particulièrement mis sur la validation du modèle DEM au moyen de comparaison des résultats des simulations DEM avec leurs équivalents physiques à une échelle macro. Les résultats virtuels DSA sont abordés du point de vue de la coaxialité entre les principales tensions et les principales directions des paliers de pression ainsi que de la déviation de la direction d'extension nulle à partir de la direction horizontale. Les résultats numériques fournissent également des données quantitatives sur les différentes formes d'énergie consommées durant le cisaillement confirmées par d'autres résultats physiques et numériques publiés. Sur la base des postulats précédents, un examen minutieux des résultats des essais de cisaillements directs et de données issues de la littérature a été accompli afin d'évaluer la fiabilité des formules empiriques bien connues de Bolton et Collins et al. avec leurs constantes couramment employées en condition de déformation plane. L'étude montre qu'une application des relations empiriques de force-dilatation de cisaillement avec les constantes proposées par Bolton (1986) et Collins et al. (1992) aux sables ayant une distribution de taille de particules différente peut conduire à surestimer leurs valeurs en terme de force de cisaillement. Dans cette étude, les coefficients des équations de Bolton et Collins et al. ont donc été ajustée afin de prendre en compte les caractéristiques des particules, en particulier le diamètre médian, D50. De manière analogue, les effets microstructuraux imposés par la géométrie interne des particules (par exemple la taille, la forme et la gradation des particules) sur la relation tension-dilatation très connue, celle de Rowe (1962), et son ajustement empirique en condition triaxiale drainée ont été examinés dans cette étude. Une comparaison des prédictions des formules proposées avec les données de force de cisaillement issues de la littérature fournit de nombreuses preuves en faveur des contraintes mises en place au sein des relations existantes de force-dilatation de cisaillement en condition de déformation plane et triaxiale. Ces comparaisons prouvent également que la prise en compte de la taille des grains conduit à des résultats plus tangibles que lorsque la taille de la particule n'est pas considérée. Les formules de force-dilatation ajustées peuvent se révéler avantageuses pour évaluer indépendamment la cohérence des forces de cisaillement déterminées expérimentalement et pour introduire des lois d’écoulement plus précises dans les analyses géotechniques analytiques et numériques.
Resumo:
Résumé : La formation de métastases s’inscrit comme la finalité d’un processus darwinien dans lequel les cellules tumorales subissent des altérations génétiques et épigénétiques dans l’unique but de préserver un avantage prolifératif. L’environnement hypoxique, caractéristique des tumeurs solides, se révèle comme une pression de sélection et un facteur déterminant dans la progression tumorale. Face à l’hypoxie, une des adaptations majeures des cellules tumorales est le déséquilibre du pH cellulaire qui mène à la formation de métastases et à la résistance à la chimiothérapie. Cette thèse met en lumière de nouveaux liens moléculaires entre l’hypoxie et la régulation du pH dans des contextes d’invasion cellulaire et de chimiorésistance. Les échangeurs d’ions NHE1 et NHE6 sont au cœur de ces études où de nouveaux rôles dans la progression du cancer leur ont été attribués. Premièrement, nous avons observé l’influence de l’hypoxie sur la régulation de NHE1 par p90RSK et les conséquences fonctionnelles de cette interaction dans l’invasion cellulaire par les invadopodes. En conditions hypoxiques, NHE1 est activé par p90RSK résultant en une acidification extracellulaire. En modifiant le pH, NHE1 stimule la formation des invadopodes et la dégradation de la matrice extracellulaire. Ainsi, la phosphorylation de NHE1 par p90RSK en hypoxie apparaît comme un biomarqueur potentiel des cancers métastatiques. Peu étudié, le pH endosomal peut intervenir dans la chimiorésistance mais les mécanismes sont inconnus. Nous avons développé une méthode pour mesurer précisément le pH endosomal par microscopie. Ceci a permis d’illuminer un nouveau mécanisme de résistance induit par l’hypoxie et mettant en vedette l’échangeur NHE6. L’hypoxie favorise l’interaction de NHE6 avec RACK1 à la membrane plasmique empêchant la localisation endosomale de l’échangeur. Cette interaction mène à la séquestration de la doxorubicine dans des endosomes sur-acidifiés. Ces travaux mettent en évidence pour la première fois le rôle du pH endosomal et l’échangeur NHE6 comme des éléments centraux de la chimiorésistance induite par l’hypoxie. Cette thèse renforce donc l’idée voulant que les interactions entre les cellules tumorales et le microenvironnement hypoxique sont le « talon d’Achille » du cancer et la régulation du pH cellulaire est primordiale dans l’adaptation des cellules à l’hypoxie et l’instauration du phénotype malin du cancer. La découverte de nouveaux rôles pro-tumoraux pour NHE1 et NHE6 les placent à l’avant-plan pour le développement de stratégies thérapeutiques orientées contre la formation de métastases et la chimiorésistance.
Resumo:
La présente recherche porte sur les traces écrites laissées par des élèves de quatrième secondaire sur leur texte en situation de préparation à une évaluation sommative. Compte tenu des milieux d'où ils proviennent et de leurs connaissances antérieures, force est de constater que les compétences en lecture de ces élèves sont très variables et ont des conséquences importantes non seulement dans leur cours de français, mais aussi dans toutes les autres matières: plus les élèves avancent dans leur cheminement scolaire, plus les enseignants leur demandent de lire des textes longs et complexes. Pourtant, force est de constater que les résultats en lecture des élèves de quatrième et cinquième secondaire restent faibles. De nombreuses études ont démontré que la lecture de textes narratifs mobilise tous les aspects de la lecture et augmente les compétences générales à lire. Pour les enseignants de français, une façon courante d'évaluer la lecture au deuxième cycle du secondaire est donc de distribuer un texte narratif bref (conte, nouvelle, extrait de roman) à l'avance aux élèves et de leur suggérer d'y laisser des traces écrites de leur réflexion ou des stratégies utilisées, dans le but de favoriser leur compréhension et leur interprétation du texte. Ces traces peuvent prendre la forme, par exemple, de soulignements, de surlignements, d'annotations dans les marges, de schémas. Toutefois, peu de recherches scientifiques se sont attardées aux opinions, aux conceptions et aux pratiques des élèves lorsqu'il s'agit de se préparer à une évaluation de la sorte. Notre recherche, exploratoire et descriptive, vise deux objectifs spécifiques: premièrement, décrire l'investissement, les opinions et attitudes, les conceptions et le mode d'investissement d'élèves de quatrième secondaire et, deuxièmement, décrire les relations entre ces quatre dimensions afin de dresser un portrait global du rapport des élèves aux traces écrites lors de leur préparation à une évaluation de lecture. Pour ce faire, nous avons privilégié une collecte de données en trois phases: après avoir passé, à un échantillon de 41 élèves volontaires, des questionnaires présentant des items à coter sur une échelle de Likert, nous avons observé les textes sur lesquels des traces de leur travail de préparation étaient visibles. Pour finir, nous avons rencontré quatre de ces élèves en entrevue semi-dirigées, choisis en fonction de leurs réponses aux questionnaires et du type de traces qu'ils avaient laissées. Pour augmenter la validité des résultats, les données recueillies à chacune des phases [ont] été croisées afin d'obtenir un maximum d'informations sur le rapport des élèves aux traces écrites. Les résultats obtenus montrent que, malgré le fait que les élèves ont des perceptions généralement assez positives du recours aux traces écrites, les traces qu'ils laissent généralement sur leurs textes sont peu pertinentes dans la mesure où elles ne contribuent pas, pour la plupart, à établir des liens essentiels à la compréhension globale du texte narratif, comme les liens de causalité. Les entrevues nous apprennent que certains élèves ont effectivement l'impression que certaines traces écrites sont plus pertinentes que d'autres, mais qu'ils ignorent souvent lesquelles et comment y recourir pendant leur lecture. Le rapport aux traces écrites est complexe, dépend de la situation et varie d'un individu à l'autre en fonction de plusieurs facteurs contextuels: les expériences et connaissances antérieures de l'élève, la résistance du texte imposé et les contacts avec les pairs. Tous ces facteurs influencent l'élève dans ce qu'il pense, ce qu'il ressent et ce qu'il fait lors de la préparation à une évaluation de lecture.
Resumo:
Les caractéristiques physiques des granulats ont une forte influence sur la performance du béton, y compris l'ouvrabilité du béton, la zone de transition, le module d'élasticité, la résistance mécanique, etc. Comparativement aux bétons conventionnels vibrés, les bétons fluides à rhéologie adapté (BFRA) beaucoup plus complexes, doivent présenter une bonne stabilité (résistance à la ségrégation), une bonne rhéologie et les résistances mécaniques souhaitées. Le choix des granulats joue un rôle majeur pour l'obtention de ces différentes propriétés. Une meilleure compréhension de l'influence des caractéristiques physiques sur la performance des BFRA est nécessaire pour leur optimisation afin d'obtenir un bon rapport performance-coût. L'objectif principal de cette étude est de comprendre l'influence des propriétés physiques des granulats (forme, densité, granulométrie, module de finesse, et la quantité de particules plates ou allongées) sur la demande en superplastifiant, la rhéologie et les propriétés mécaniques des BFRA. Les types de bétons étudiés sont les bétons autoplaçants (BAP) destinés à la construction de bâtiments, les bétons semi-autoplaçants (BSAP) destinés pour la construction et la réparation des infrastructures et les BAP destinés à la préfabrication. Quatre rapports sable/granulat total (S/G), deux sables composés (manufacturé et naturel) au laboratoire de différentes finesses (MF = 2,5 et MF = 3) et un sable naturel provenant d'usines ont été utilisés. L'influence de la compacité granulaire, du type de sable (naturel vs manufacturé) et de la teneur en fines du squelette granulaire sur les propriétés rhéologiques et mécaniques des BFRA est étudiée. Douze mélanges de BSAP ont été formulés à cet effet. L'influence du type de granulométrie (continue ou discontinue), du diamètre nominal maximal des gros granulats (10, 14 et 20 mm) et de la forme des gros granulats (roulé, aplati et allongé) sur les propriétés rhéologiques et mécaniques des BFRA ont été étudiées. Quatre types de gros granulats provenant de l'industrie et sept gros granulats reconstitués en laboratoire ont été utilisés pour prendre en compte tous ces paramètres. Les résultats montrent que la compacité granulaire est une donnée importante à prendre en compte pour la formulation d'un BFRA (BAP ou BSAP). Cette étude a également montré que les particules fines de diamètres inférieurs à 315 [micro]m sont celles qui influencent les paramètres rhéologiques des BSAP. Pour un rapport E/L constant et un diamètre d'étalement fixe, l'augmentation de la teneur de particules passant le tamis 315 [micro]m augmente la viscosité plastique, diminue le seuil de cisaillement et augmente la stabilité statique des bétons. Cette étude préconise l'utilisation des granulats concassés de granulométrie continue contenant des particules équidimensionnelles pour améliorer les propriétés rhéologiques des bétons. Enfin, grâce à cette étude, la production des BAP dans les industries connaîtra une avancée majeure par un choix stratégique des granulats. Les industries pourront notamment faire une utilisation optimale des superplastifiants, adapter la rhéologie des BAP (viscosité plastique et seuil de cisaillement) au type de BAP tout en conservant leurs caractéristiques mécaniques. Cette étude bien que scientifique, répond en d'autres termes aux besoins de l'industrie car elle propose un bon rapport performance-coût des BAP.
Resumo:
La connectivité fonctionnelle est reconnue pour altérer la fréquence des rencontres entre les individus et potentiellement affecter les coûts en lien avec la recherche de partenaires sexuels. La structure du paysage peut conséquemment engendrer de la variation dans le succès reproducteur des individus et par le fait même, modifier les opportunités de sélection sexuelle. Le but de cette étude était d’identifier l’influence de la structure du paysage sur les patrons de paternités hors couple (EPP) chez l’Hirondelle bicolore (Tachycineta bicolor), un insectivore aérien en déclin depuis environ 30 ans au Québec. Plus précisément, il était question d’évaluer l’importance relative de la disponibilité spatiotemporelle des partenaires potentiels, de la perméabilité de l’environnement aux mouvements, des caractéristiques individuelles, et des interactions entre certaines de ces variables sur la probabilité qu’un mâle fertilise une femelle, sur le nombre de mâles hors couple ayant fertilisé une femelle et enfin, sur le nombre de jeunes hors couple produits par une femelle. Pour se faire, une approche spatialement explicite basée sur la théorie des circuits a été employée. La collecte de données s’est faite sur 8 saisons de reproduction au sein d’un réseau de 40 fermes (10 nichoirs/ferme) situé le long d’un gradient d’intensification agricole de manière à ce que les individus se retrouvent dans des conditions socioécologiques contrastées. Selon les résultats obtenus, la densité de partenaires potentiels non locaux (i.e. hors ferme, mais au sein d’un rayon de 15 km) a eu un effet négatif sur la probabilité que deux individus produisent des jeunes hors couple, probablement à cause de l’effet de dilution entre compétiteurs. Cette même variable a également induit une augmentation du nombre de pères hors couple non locaux et de leurs jeunes dans une couvée donnée, mais seulement lorsque la résistance aux déplacements était faible. La densité locale a pour sa part eu l’effet inverse, ce qui laisse penser que les femelles auraient tendance à se contenter de leurs voisins immédiats quand les coûts de recherche dans le paysage sont trop élevés en comparaison à ce qui est disponible à proximité. Quant aux caractéristiques individuelles, leurs effets semblent négligeables à l’exception faite de la charge parasitaire moyenne des mâles locaux, laquelle pousserait les femelles à chercher des mâles en dehors de la ferme lorsqu’elle est élevée. Ce facteur ne représente toutefois pas seulement un indice potentiel de la qualité des jeunes produits par ces mâles, mais aussi un risque direct de transmission de parasites lors de copulations hors couple. Somme toute, il semble que les patrons de EPP soient davantage affectés par les variables du paysage que par la morphologie et la condition physique des individus. Ces découvertes sont d’un intérêt particulier puisque la compréhension des effets de l’écologie sur les paternités hors couple est essentielle pour une meilleure connaissance de la sélection sexuelle, des stratégies d’appariement et par le fait même, des processus évolutifs. De plus, identifier le rôle joué par le paysage dans les stratégies sexuelles pourrait aider à élaborer des plans de conservation appropriés pour les espèces dont le déclin est attribuable à des changements dans l’environnement.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Abstract : Wastepaper sludge ash (WSA) is generated by a cogeneration station by burning wastepaper sludge. It mainly consists of amorphous aluminosilicate phase, anhydrite, gehlenite, calcite, lime, C2S, C3A, quartz, anorthite, traces of mayenite. Because of its free lime content (~10%), WSA suspension has a high pH (13). Previous researchers have found that the WSA composition has poor robustness and the variations lead to some unsoundness for Portland cement (PC) blended WSA concrete. This thesis focused on the use of WSA in different types of concrete mixes to avoid the deleterious effect of the expansion due to the WSA hydration. As a result, WSA were used in making alkali-activated materials (AAMs) as a precursor source and as a potential activator in consideration of its amorphous content and the high alkaline nature. Moreover, the autogenous shrinkage behavior of PC concrete at low w/b ratio was used in order to compensate the expansion effect due to WSA. The concrete properties as well as the volume change were investigated for the modified WSA blended concrete. The reaction mechanism and microstructure of newly formed binder were evaluated by X-ray diffraction (XRD), calorimetry, thermogravimetric analysis (TGA), scanning electron microscopy (SEM) and energy dispersive X-ray spectroscopy (EDX). When WSA was used as precursor, the results showed incompatible reaction between WSA and alkaline solution. The mixtures were not workable and provided very low compressive strength no matter what kinds of chemical activators were used. This was due to the metallic aluminum in WSA, which releases abundant hydrogen gas when WSA reacts with strong alkaline solution. Besides, the results of this thesis showed that WSA can activate the glassy phase contained in slag, glass powder (GP) and class F fly ash (FFA) with an optimum blended ratio of 50:50. The WSA/slag (mass ratio of 50:50) mortar (w/b of 0.47) attained 46 MPa at 28 days without heat curing assistance. A significant fast setting was noticed for the WSA-activated binder due to the C3A phase, free lime and metallic aluminum contained in the WSA. Adding 5% of gypsum can delay the fast setting, but this greatly increased the potential risk of intern sulfate attack. The XRD, TGA and calorimetry analyses demonstrated the formation of ettringite, C-S-H, portlandite, hydrogarnet and calcium carboaluminate in the hydrated binder. The mechanical performance of different binder was closely related to the microstructure of corresponding binder which was proved by the SEM observation. The hydrated WSA/slag and WSA/FFA binder formed a C-A-S-H type of gel with lower Ca/Si ratio (0.47~1.6). A hybrid gel (i.e. C-N-A-S-H) was observed for the WSA/GP binder with a very low Ca/Si ratio (0.26) and Na/Si ratio (0.03). The SEM/EDX analyses displayed the formation of expansive gel (ettringite and thaumasite) in the gypsum added WSA/slag concrete. The gradual emission of hydrogen gas due to the reaction of WSA with alkaline environment significantly increased the porosity and degraded the microstructure of hydrated matrix after the setting. In the last phase of this research WSA-PC blended binder was tailored to form a high autogenous shrinkage concrete in order to compensate the initial expansion. Different binders were proportioned with PC, WSA, silica fume or slag. The microstructure and mechanical properties of concrete can be improved by decreasing w/b ratios and by incorporating silica fume or slag. The 28-day compressive strength of WSA-blended concrete was above 22 MPa and reached 45 MPa when silica fume was added. The PC concrete incorporating silica fume or slag tended to develop higher autogenous shrinkage at low w/b ratios, and thus the ternary binder with the addition of WSA inhibited the long term shrinkage due to the initial expansion property to WSA. In the restrained shrinkage test, the concrete ring incorporating the ternary binder (PC/WSA/slag) revealed negligible potential to cracking up to 96 days as a result of the offset effect by WSA expansion. The WSA blended regular concrete could be produced for potential applications with reduced expansion, good mechanical property and lower permeability.
Resumo:
Les matériaux composites sont utilisés dans beaucoup de domaines pour leurs propriétés mécaniques spécifiques, leur mise en forme facile et leur bas coût. Cependant, lorsque les composites pétro-sourcées sont en fin de vie, le traitement des déchets a un fort impact environnemental. C’est pour cette raison que les industriels se tournent vers des matériaux bio-sourcés. Ils souhaitent ainsi abaisser le coût des matières premières mais aussi se donner une image plus « verte » grâce à l’utilisation de matériaux renouvelables et/ou compostables. Le projet présenté s’inscrit dans dans cette optique où il est question d’élaborer de nouveaux composites à renfort et matrices bio-sourcés et tout particulièrement des composites fibre de lin/acide polylactique (PLA). Ces derniers sont généralement appelés bio-composites. L’originalité de cette étude réside dans le traitement des fibres de lin afin de les compatibilité avec la matrice PLA. Le traitement consiste au greffage de dioxyde de titane sur la surface de fibres de lin fonctionnalisée par oxydation au TEMPO. Ces fibres longues sont ensuite utilisées comme renfort sous forme de tissu unidirectionnel dans la matrice PLA. Le comportement mécanique en traction, flexion et la résistance à l’impact de ces biocomposites sont étudiés afin d’analyser l’influence du traitement des fibres sur leur performances.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.
Resumo:
Dans le contexte de la production d’éthanol cellulosique, la cellulose doit être hydrolysée par voie chimique ou enzymatique. Dans ce procédé d’hydrolyse, la partie cristalline de la cellulose est plus difficilement fragmentable, ce qui entraîne des coûts supplémentaires dues au temps de traitement plus élevé ou à la quantité supplémentaire de produits chimiques nécessaires. Dans l’optique de réduire les coûts de l’hydrolyse tout en recherchant une voie pour valoriser la cellulose cristalline, l’idée de fabriquer des composites polymères/cellulose est attrayante. L’objectif du présent travail a donc été de valider si la cellulose microcristalline tirée d’un processus d’hydrolyse acide pourrait mener à de nouveaux matériaux composites à valeur ajoutée. Un obstacle anticipé dans le projet a été la faible adhésion de la cellulose, hydrophile et polaire, aux polymères généralement beaucoup moins polaires. Le développement de composites performants et l’atteinte de teneurs élevés en cellulose microcristalline a donc inclus, sur le plan chimique, l’objectif de comparer divers traitements de surface de la cellulose qui permettrait de pallier aux défis anticipés. La méthodologie utilisée dans ce projet a consisté à développer et optimiser un protocole de modification chimique sur de la cellulose microcristalline commerciale à l’échelle laboratoire. Les celluloses modifiées ont été soumises à une caractérisation par analyse de l’angle de contact pour caractériser l’hydrophobicité des fibres, par spectrométrie photoélectronique X pour l’analyse de la composition chimique des fibres, par granulométrie laser pour mesurer la longueur des différentes fibres et microscopie optique pour l’observation de la longueur des fibres. Toutes les techniques ont été utilisées afin de comparer les propriétés des celluloses modifiées à celles de la cellulose de référence. La cellulose de référence et les celluloses modifiées chimiquement ont ensuite été mélangées à des concentrations de 0 à 50% avec du polyéthylène de basse densité à l’état fondu en utilisant un mélangeur interne de type Brabender®. Les composites ont été caractérisés par microscopie électronique à balayage pour analyser la morphologie de mélange sur les surfaces de rupture et l’homogénéité du mélange, par des analyses rhéologiques afin d’obtenir la viscosité en fonction du cisaillement et par des essais de traction afin de déterminer leur Module de Young, leur résistance à la traction et leur élongation à la rupture. Ces caractéristiques permettent de prévoir la performance des composites dans des applications structurales.