47 resultados para Paramètres inertiels
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
Le but de cette étude est de comparer certains paramètres anthropométriques (le poids, l'indice de masse corporelle, le pli adipeux du triceps, la somme des plis cutanés) et physiologiques (la performance en minutes au test Léger navette, la pression systolique et diastolique). L'expérimentation d'une durée de trois semaines se réalise à l'école La Maisonnée, située à Rock Forest et regroupe 80 sujets âgés de 7 à 11 ans qui sont divisés en deux groupes. Le groupe contrôle de 40 sujets ayant une pression artérielle normale (< 90e percentile selon l'âge et le sexe) et le groupe expérimental est composé de 40 sujets ayant une pression artérielle élevée (> 90e percentile selon l'âge et le sexe). Les résultats démontrent des différences significatives entre le groupe contrôle et le groupe expérimental au niveau de la pression systolique et diastolique, du poids, de l'indice de masse corporelle, du pli adipeux du triceps, de la somme des plis cutanés et de la performance en minutes au test Léger navette. De plus, cette étude révèle qu'il y a beaucoup plus d'enfants du deuxième cycle que du premier cycle du primaire qui ont une pression artérielle élevée. En sachant maintenant que l'hypertension est un facteur de risque important de la maladie coronarienne et qu'elle est souvent une conséquence de l'obésité, des mesures devraient être entreprises afin de prévenir ce problème chez l'enfant. En terminant, un programme d'activité physique pourrait être implanté dans les écoles pour diminuer ce problème qui prend de plus en plus d'ampleur à chaque année.
Resumo:
Résumé : Une dysrégulation de la lipolyse des tissus adipeux peut conduire à une surexposition des tissus non-adipeux aux acides gras non-estérifiés (AGNE), qui peut mener à un certain degré de lipotoxicité dans ces tissus. La lipotoxicité constitue, par ailleurs, l’une des causes majeures du développement de la résistance à l’insuline et du diabète de type 2. En plus de ses fonctions glucorégulatrices, l’insuline a pour fonction d’inhiber la lipolyse et donc de diminuer les niveaux d’AGNE en circulation, prévenant ainsi la lipotoxicité. Il n’y a pas d’étalon d’or pour mesurer la sensibilité de la lipolyse à l’insuline. Le clamp euglycémique hyperinsulinémique constitue la méthode étalon d’or pour évaluer la sensibilité du glucose à l’insuline mais il est aussi utilisé pour mesurer la suppression de la lipolyse par l’insuline. Par contre, cette méthode est couteuse et laborieuse, et ne peut pas s’appliquer à de grandes populations. Il existe aussi des indices pour estimer la fonction antilipolytique de l’insuline dérivés de l’hyperglycémie provoquée par voie orale (HGPO), un test moins dispendieux et plus simple à effectuer à grande échelle. Cette étude vise donc à : 1) Étudier la relation entre les indices de suppressibilité des AGNE par l’insuline dérivés du clamp et ceux dérivés de l’HGPO; et 2) Déterminer laquelle de ces mesures corrèle le mieux avec les facteurs connus comme étant reliés à la dysfonction adipeuse : paramètres anthropométriques et indices de dysfonction métabolique. Les résultats montrent que dans le groupe de sujets étudiés (n=29 femmes, 15 témoins saines et 14 femmes avec résistance à l’insuline car atteintes du syndrome des ovaires polykystiques), certains indices de sensibilité à l’insuline pour la lipolyse dérivés de l’HGPO corrèlent bien avec ceux dérivés du clamp euglycémique hyperinsulinémique. Parmi ces indices, celui qui corrèle le mieux avec les indices du clamp et les paramètres anthropométriques et de dysfonction adipeuse est le T50[indice inférieur AGNE] (temps nécessaire pour diminuer de 50% le taux de base – à jeun – des AGNE). Nos résultats suggèrent donc que l’HGPO, facile à réaliser, peut être utilisée pour évaluer la sensibilité de la lipolyse à l’insuline. Nous pensons que la lipo-résistance à l’insuline peut être facilement quantifiée en clinique humaine.
Resumo:
Ce mémoire est consacré à l'étude du modèle statistique bivarié duquel sont issues deux variables aléatoires conditionnellement indépendantes de loi de Poisson, dont les taux ne sont pas nécessairement égaux. Tout au long de ce mémoire, l'emphase est mise sur le développement d'un cadre bayésien au problème d'estimation paramétrique pour un tel modèle. Deux thèmes principaux y sont abordés : l'inférence statistique du rapport des deux paramètres d'intensité poissonniens et les densités prédictives. Ces problèmes surviennent notamment dans le contexte d'estimation de l'efficacité d'un vaccin développé par Laurent (Laurent, 2012) de même que Laurent et Legrand (Laurent et Legrand, 2012), ou encore, par celui d'estimation de l'efficacité d'un traitement contre le cancer par Lindley (Lindley, 2002). Alors que, dans ces articles, aucune contrainte paramétrique n'est imposée sur le rapport des deux taux poissonniens, une partie du mémoire abordera également ces thèmes lorsqu'il y a une contrainte restreignant le domaine du rapport sur l'intervalle $[0,1]$. Il sera alors possible d'établir des liens avec un article sur les files d'attente d'Armero et Bayarri (Armero et Bayarri, 1994).
Resumo:
Les caractéristiques physiques des granulats ont une forte influence sur la performance du béton, y compris l'ouvrabilité du béton, la zone de transition, le module d'élasticité, la résistance mécanique, etc. Comparativement aux bétons conventionnels vibrés, les bétons fluides à rhéologie adapté (BFRA) beaucoup plus complexes, doivent présenter une bonne stabilité (résistance à la ségrégation), une bonne rhéologie et les résistances mécaniques souhaitées. Le choix des granulats joue un rôle majeur pour l'obtention de ces différentes propriétés. Une meilleure compréhension de l'influence des caractéristiques physiques sur la performance des BFRA est nécessaire pour leur optimisation afin d'obtenir un bon rapport performance-coût. L'objectif principal de cette étude est de comprendre l'influence des propriétés physiques des granulats (forme, densité, granulométrie, module de finesse, et la quantité de particules plates ou allongées) sur la demande en superplastifiant, la rhéologie et les propriétés mécaniques des BFRA. Les types de bétons étudiés sont les bétons autoplaçants (BAP) destinés à la construction de bâtiments, les bétons semi-autoplaçants (BSAP) destinés pour la construction et la réparation des infrastructures et les BAP destinés à la préfabrication. Quatre rapports sable/granulat total (S/G), deux sables composés (manufacturé et naturel) au laboratoire de différentes finesses (MF = 2,5 et MF = 3) et un sable naturel provenant d'usines ont été utilisés. L'influence de la compacité granulaire, du type de sable (naturel vs manufacturé) et de la teneur en fines du squelette granulaire sur les propriétés rhéologiques et mécaniques des BFRA est étudiée. Douze mélanges de BSAP ont été formulés à cet effet. L'influence du type de granulométrie (continue ou discontinue), du diamètre nominal maximal des gros granulats (10, 14 et 20 mm) et de la forme des gros granulats (roulé, aplati et allongé) sur les propriétés rhéologiques et mécaniques des BFRA ont été étudiées. Quatre types de gros granulats provenant de l'industrie et sept gros granulats reconstitués en laboratoire ont été utilisés pour prendre en compte tous ces paramètres. Les résultats montrent que la compacité granulaire est une donnée importante à prendre en compte pour la formulation d'un BFRA (BAP ou BSAP). Cette étude a également montré que les particules fines de diamètres inférieurs à 315 [micro]m sont celles qui influencent les paramètres rhéologiques des BSAP. Pour un rapport E/L constant et un diamètre d'étalement fixe, l'augmentation de la teneur de particules passant le tamis 315 [micro]m augmente la viscosité plastique, diminue le seuil de cisaillement et augmente la stabilité statique des bétons. Cette étude préconise l'utilisation des granulats concassés de granulométrie continue contenant des particules équidimensionnelles pour améliorer les propriétés rhéologiques des bétons. Enfin, grâce à cette étude, la production des BAP dans les industries connaîtra une avancée majeure par un choix stratégique des granulats. Les industries pourront notamment faire une utilisation optimale des superplastifiants, adapter la rhéologie des BAP (viscosité plastique et seuil de cisaillement) au type de BAP tout en conservant leurs caractéristiques mécaniques. Cette étude bien que scientifique, répond en d'autres termes aux besoins de l'industrie car elle propose un bon rapport performance-coût des BAP.
Resumo:
L'évaluation des compétences comporte des enjeux éthiques reliés à la validité et l'équité des inférences évaluatives. Ces valeurs édumétriques sont fortement compromises lorsque l'objet et les critères d'évaluation ainsi que les pratiques évaluatives des évaluateurs ne tiennent pas compte des caractéristiques du concept de compétence, notamment son caractère développemental. Un système d'évaluation des compétences fondé sur le modèle cognitif de l'apprentissage, congruent avec le concept de compétence, est plus susceptible d'assurer la validité et l'équité des inférences évaluatives. La compétence "Exercer un jugement clinique infirmier" fut choisie pour élaborer un modèle cognitif de l'apprentissage pour les trois années de formation au baccalauréat en sciences infirmières. De plus, des indicateurs de développement ont été identifiés pour les trois niveaux de développement de cette même compétence. Une approche collaborative a été privilégiée pour atteindre ces objectifs. Le groupe collaboratif, composé de trois tutrices, de trois infirmières-monitrices et de la chercheuse, a analysé six récits d'expérience d'évaluation de cette compétence chez des étudiants de ce programme. L'analyse des données a conduit à une première version du modèle cognitif de l'apprentissage de la compétence "Exercer un jugement clinique infirmier" qui fut validée et améliorée par les partenaires de recherche. La logique de progression des apprentissages critiques et la concrétisation de ceux-ci par les indicateurs de développement ont été confirmées par des experts académiques. Les résultats montrent également des interinfluences entre les paramètres de cette compétence qui appuient la nécessité de réaliser tous les apprentissages critiques d'un même niveau pour l'atteindre. Les retombées de cette étude concernent les programmes de formation en sciences infirmières ainsi que ceux destinés à l'intégration des nouvelles infirmières dans les milieux cliniques. Les résultats de l'étude incitent aussi à poursuivre des recherches ultérieures pour compléter ce modèle cognitif de l'apprentissage et également à en construire pour d'autres compétences professionnelles.
Resumo:
La présente étude se penche sur les facteurs associés à l'atteinte des objectifs d'intervention dans les mesures de mise en mouvement chez les jeunes de 16-17 ans en situation de précarité. Au Québec, les effets de la pyramide démographique, l'essor de l'emploi atypique et les mutations économiques que subit le marché du travail peuvent engendrer une situation de précarité chez certains jeunes, dont les jeunes sans diplôme, les jeunes ayant été pris en charge par le système de protection de la jeunesse et les jeunes peu scolarisés. Dans cette perspective, des actions gouvernementales, sous forme de mesures, ont été mises en oeuvre en vue de fournir à ces jeunes un soutien dans leur insertion socioprofessionnelle et leur maintien à l'école. Nous nous intéressons à ces mesures, et plus particulièrement aux aspects personnels et contextuels des jeunes associés aux degrés d'atteinte des objectifs d'intervention. Les conditions associées aux participants de même que les mesures de mise en mouvement sont appréhendées sous l'angle de l'approche écosystémique. À cet effet, les objectifs de cette étude sont de déterminer les caractéristiques personnelles et les caractéristiques environnementales associées à l'atteinte des objectifs d'intervention des participants lors de leur passage dans ces mesures de mise en mouvement. À cette fin, les données employées proviennent d'une recherche évaluative de la mesure IDEO 16-17 (Yergeau, Bélisle, Bourdon et Thériault, 2009). Les participants (n=48) provenaient de différentes régions et étaient âgés de 15 et 19 ans. Alors que certains participants commençaient la mesure, certains participants interrogés avaient terminé la mesure. Parmi ces participants, 23 étaient des femmes et 25 des hommes. Un volet d'entrée leur était attribué selon leur problématique (mise en mouvement, persévérance scolaire ou rétablissement personnel). Des analyses bivariées ont été réalisées afin de relever les relations significatives entre les caractéristiques des jeunes, le degré d'atteinte moyen des objectifs d'intervention et la cote d'atteinte de l'objectif le plus associé au volet d'entrée. Deux régressions linéaires multiples ont également été exécutées afin de vérifier si les modèles employés expliquent une proportion significative de la variation du degré d'atteinte. Les résultats obtenus montrent la présence d'une corrélation positive entre l'âge des participants et le degré moyen d'atteinte des objectifs d'intervention. Ce résultat peut s'expliquer, entre autres, par une plus grande maturité et par un développement cognitif plus élevé des jeunes plus âgés. Aucun autre résultat significatif n'a été relevé. Toutefois, l'absence de résultats significatifs ne signifie pas que les liens entre les variables soient inexistants dans la réalité. L'absence de résultats significatifs peut s'expliquer en partie par certaines limites de la méthodologie, dont un échantillon hétérogène de taille modeste, une variance des variables dépendantes et certains paramètres de sélection du devis. Toutefois, certains aspects reliés à la nature même de la programmation souple de la mesure expliqueraient davantage l'absence de résultats, dont le manque d'adéquation entre le volet d'entrée et les objectifs d'intervention au plan d'action de même que la diversité et l'intensité variable des interventions inhérentes à l'étendue des problématiques des participants. Cette flexibilité caractéristique des mesures à programmation souple pose des défis méthodologiques et analytiques à la recherche et suggère au lecteur de nuancer l'interprétation des résultats. En conclusion, la présente recherche n'a pu déceler d'associations significatives entre le degré d'atteinte des objectifs d'intervention et les caractéristiques systémiques à l'étude. Certains aspects méthodologiques et de la nature de la mesure peuvent contribuer à expliquer l'absence de résultats significatifs. Comme il s'agit à notre connaissance de la première étude sur ce thème spécifique, il appert pertinent de poursuivre les études dans ce domaine.
Resumo:
Résumé : De même degré d’importance que les paramètres de formulation, les conditions de consolidation sont des facteurs déterminants pour la durabilité des bétons conventionnels vibrés. Dans le cas des bétons autoplaçants (BAP), grâce à leur grande fluidité, la mise en place dans les coffrages a lieu par écoulement libre sous l’effet de leur poids propre. Leur consolidation se fait sans vibration grâce à leurs caractéristiques rhéologiques. Il est donc légitime de penser que les caractéristiques rhéologiques des BAP peuvent avoir une influence importante sur les propriétés qui déterminent la durabilité. Cette thèse étudie les liens possibles entre les caractéristiques rhéologiques des BAP et leur durabilité vis-à-vis du transport des agents agressifs. Dix-sept formulations de BAP couvrant une large gamme de caractéristiques rhéologiques et se différenciant uniquement par leur dosage en adjuvants ont été étudiées à cet effet. Trois modèles rhéologiques classiques ont été mis en œuvre pour la détermination des paramètres rhéologiques des bétons étudiés. L’essai de sorptivité et dans une moindre mesure l’essai de carbonatation accélérée ont été utilisés comme indicateur de durabilité vis-à-vis du transport des agressifs. La durabilité de la couche superficielle au contact respectivement avec le coffrage en bois et en PVC a été étudiée et les résultats ont été comparés à la durabilité du béton à cœur. Cette étude a été faite en tenant compte des échanges hydriques et de l’arrangement granulaire au droit du coffrage. D’autre part, l’étude de la durabilité de la couche superficielle dans des conditions de mise en place proches du chantier a été faite sur 6 poutres partiellement armées longues de 2 m ainsi que sur 3 bétons semi-autoplaçants légèrement vibrés. Les résultats montrent qu’il existe une corrélation forte entre la viscosité plastique du modèle Bingham modifié ou le coefficient de consistance du modèle Herschel-Bulkley et la sorptivité. Très probablement, la viscosité agit sur le volume relatif des pores capillaires de gros diamètres. L’étude spécifique de la couche superficielle a montré que sa sorptivité dépend du type de coffrage utilisé à cause des éventuels échanges hydriques opérés entre le béton et la surface du coffrage. De plus, l’arrangement granulaire au droit du coffrage est également influencé. Ainsi, la sorptivité de la couche superficielle au contact du PVC est proche mais inférieure à celle du béton à cœur. La sorptivité de la couche superficielle au contact du bois est significativement inférieure à celle de la couche superficielle au contact du PVC tout en restant corrélé avec la viscosité plastique du modèle Bingham modifié ou le coefficient de consistance du modèle Herschel-Bulkley.
Resumo:
Les systèmes d’actionnement couramment utilisés sur les systèmes de robotiques mobiles tels que les exosquelettes ou les robots marcheurs sont majoritairement électriques. Les batteries couplées à des moteurs électriques souffrent toutefois d’une faible densité de stockage énergétique et une faible densité de puissance, ce qui limite l’autonomie de ces dispositifs pour une masse de système donnée. Une étude comparative des systèmes d’actionnement potentiels a permis de déterminer que l’utilisation d’une source d’énergie chimique permettait d’obtenir une densité de stockage énergétique supérieure aux batteries. De plus, il a été déterminé que l’utilisation de la combustion directement dans un actionneur pneumatique souple permettrait d’obtenir une densité de puissance beaucoup plus élevée que celle des moteurs électriques. La conception, la fabrication et la caractérisation de plusieurs types d’actionneurs pneumatiques pressurisés directement par la combustion d’une source d’énergie chimique ont permis d’évaluer la faisabilité de l’approche, dans un contexte de robotique mobile, plus précisément pour des tâches de locomotion. Les paramètres permettant d’obtenir une efficacité énergétique élevée ont été étudiés. Il a été démontré que le ratio de compression et le ratio d’expansion doivent être optimisés. De plus, comme les pertes thermiques sont le mécanisme de perte dominant, le ratio d’équivalence devrait être réduit au minimum. Parmi les carburants usuels, l’hydrogène permet d’atteindre les valeurs de ratio d’équivalence les plus faibles, ce qui en fait un choix de carburant idéal. Les résultats expérimentaux ont été utilisés pour corréler un modèle analytique d’un actionneur pneumatique à combustion. Ce modèle analytique est par la suite utilisé pour vérifier la faisabilité théorique de l’utilisation de l’approche d’actionnement pour fournir la puissance à un dispositif d’assistance à la locomotion.
Resumo:
Le contexte de ce projet de recherche est celui de la stabilité des barrages-poids et aborde le besoin d’évaluation de la résistance de l’interface béton-rocher. Puisqu’il est techniquement difficile d’évaluer si l’interface est liée ou non, la cohésion réelle et sa contribution à la résistance au cisaillement sont souvent négligées et ce sujet précis est peu abordé dans la littérature. Un lien direct peut être fait entre cette non-considération et des travaux de stabilisation réalisés sur des ouvrages hydrauliques. Cette étude a comme objectif la caractérisation de la cohésion réelle dans le but de déterminer s’il est sécuritaire d’incorporer sa contribution dans l’évaluation de stabilité des barrages-poids. Pour ce faire, il est nécessaire d’évaluer les comportements en traction et en cisaillement de l’interface et d’analyser comment ils sont affectés par des paramètres importants telle la rugosité de l’interface. Cette caractérisation est faite à l’aide d’un programme expérimental sur 66 répliques d’interfaces béton-rocher en mortier. La rugosité est évaluée à l’aide d’un profilomètre laser et du paramètre Z2. Les répliques ont fait l’objet d’essais de traction directe, de traction par pression de fluide et de cisaillement direct. L’influence de la rugosité d’interface et de la résistance à la compression uniaxiale (UCS) des matériaux sur les résistances à la traction et au cisaillement est évaluée grâce à l’analyse des variances (ANOVA). Des essais supplémentaires ont permis d’approfondir la compréhension du mécanisme de rupture en cisaillement. Les résultats indiquent une résistance à la traction moyenne de l’interface liée de 0,62 MPa et une cohésion (en cisaillement) moyenne de 3,1 MPa. L’ANOVA montre une augmentation significative de la résistance à la traction avec la rugosité et une augmentation significative de la résistance au cisaillement au pic avec la rugosité, l’UCS et la contrainte normale. Il a aussi été observé que le pas d’échantillonnage a un impact important sur la valeur de Z2. Les résultats suggèrent qu’une valeur minimale de cohésion de 100 à 200 kPa pourrait être utilisée dans la mesure où il peut être démontré que l’interface est liée. Cette condition pourrait d’ailleurs constituer un sujet de recherche s’inscrivant dans la continuité des travaux réalisés.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Les villes d’Afrique subsaharienne devront faire face à de grands phénomènes complexes dans les prochaines décennies : une forte croissance démographique, une demande alimentaire croissante, des impacts des changements climatiques, une augmentation des problématiques environnementales dues aux activités humaines en développement. Les difficultés de gestion de ces grands phénomènes s’ajouteront aux problématiques économiques, politiques, alimentaires, législatives, sanitaires et sociales déjà omniprésentes à différentes échelles dans les villes d’Afrique subsaharienne. L’ensemble de ces défis et ces contraintes nuit au développement des activités agricoles urbaines et périurbaines qui ont peu d’options à leur disposition pour bâtir des systèmes efficaces et productifs dans ces milieux denses et perturbés. Les préoccupations de durabilité et de santé peuvent alors souvent se trouver au bas de la liste de priorité des producteurs. L’agriculture maraîchère urbaine et périurbaine peut cependant offrir plusieurs bénéfices importants pour les citoyens et la gestion écologiques des villes. Elle participe d’une part à l’approvisionnement en aliments frais localement produits pour les citoyens urbains de diverses classes sociales. Elle a des impacts positifs sur la sécurité alimentaire et nutritionnelle ainsi que sur les conditions économiques des ménages à faible revenu. La proximité des marchés et des services urbains offrent aussi des avantages intéressants pour les producteurs qui peuvent écouler leur marchandise hautement périssable sur les marchés urbains et s’approvisionner en intrants dans les commerces et les industries urbaines. Les activités agricoles urbaines et périurbaines présentent cependant des risques pour la santé et la qualité de l’environnement urbain et périurbain puisqu’elles utilisent parfois de grandes quantités d’intrants synthétiques ou des sources de fertilisation inappropriée pour la culture des fruits et légumes. Les dernières décennies de domination d’agriculture conventionnelle nous ont permis d’apprendre que les pratiques tels que l’usage abondant d’intrants chimiques et synthétiques, le lourd travail des sols, l’utilisation d’une faible diversité de cultivars à haut rendement et les techniques d’irrigation inadaptée aux conditions locales engendrent des impacts négatifs importants sur le plan environnemental et écologique. Aujourd’hui, de nombreuses solutions de rechange sont proposées pour remplacer le modèle agricole conventionnel mondial. L’agroécologie fait partie de ces solutions de rechange et propose une vision plus intégrative de l’agriculture. Elle propose une vision des systèmes alimentaires en entier plutôt que des paramètres agricoles qui permettent d’augmenter la production alimentaire. Cet essai explore la possibilité de pratiquer une agriculture urbaine et périurbaine basée selon les principes de cette vision agroécologique dans les villes d’Afrique subsaharienne. Cet essai explore aussi de façon complémentaire l’opportunité que représente cette avenue pour répondre aux besoins alimentaires des villes d’Afrique subsaharienne. Les pratiques agroécologiques proposées et décrites offrent des possibilités différentes de travailler sur les principaux éléments agricoles d’une exploitation urbaine ou périurbaine (e.g. travail du sol, fertilisation, irrigation, protection des cultures, organisation des cultures et du paysage). Les pratiques agroécologiques présentent des possibilités variables de transformer les agroécosystèmes urbains en systèmes durables, équitables, socialement et culturellement sensibles ainsi qu’économiquement viables. Pour évaluer si les pratiques agroécologiques ont un bon potentiel d’application dans un lieu donné, il faut regarder si elles offrent la possibilité de répondre aux besoins et aux contraintes du type de production agricole concerné, des acteurs impliqués et des caractéristiques agroécologiques et environnementales du site d’exploitation. Si ces éléments ne sont pas tenus en compte, les agroécosystèmes ne pourront pas tirer profit au maximum des avantages que représente l’approche agroécologique. L’implication des autorités nationales et internationales, ainsi que des investissements dans le domaine de la recherche et du développement sont essentiels pour arriver à une plus grande adoption de pratiques agroécologiques dans les milieux urbains et périurbains.
Resumo:
L’interaction physique humain-robot est un domaine d’étude qui s’est vu porter beaucoup d’intérêt ces dernières années. Une optique de coopération entre les deux entités entrevoit le potentiel d’associer les forces de l’humain (comme son intelligence et son adaptabilité) à celle du robot (comme sa puissance et sa précision). Toutefois, la mise en service des applications développées reste une opération délicate tant les problèmes liés à la sécurité demeurent importants. Les robots constituent généralement de lourdes machines capables de déplacements très rapides qui peuvent blesser gravement un individu situé à proximité. Ce projet de recherche aborde le problème de sécurité en amont avec le développement d’une stratégie dite "pré-collision". Celle-ci se caractérise par la conception d’un système de planification de mouvements visant à optimiser la sécurité de l’individu lors de tâches d’interaction humain-robot dans un contexte industriel. Pour ce faire, un algorithme basé sur l’échantillonnage a été employé et adapté aux contraintes de l’application visée. Dans un premier temps, l’intégration d’une méthode exacte de détection de collision certifie que le chemin trouvé ne présente, a priori, aucun contact indésirable. Ensuite, l’évaluation de paramètres pertinents introduit notre notion de sécurité et définit un ensemble d’objectifs à optimiser. Ces critères prennent en compte la proximité par rapport aux obstacles, l’état de conscience des êtres humains inclus dans l’espace de travail ainsi que le potentiel de réaction du robot en cas d'évènement imprévu. Un système inédit de combinaison d’objectifs guide la recherche et mène à l’obtention du chemin jugé comme étant le plus sûr, pour une connaissance donnée de l’environnement. Le processus de contrôle se base sur une acquisition minimale de données environnementales (dispositif de surveillance visuelle) dans le but de nécessiter une installation matérielle qui se veut la plus simple possible. Le fonctionnement du système a été validé sur le robot industriel Baxter.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.