28 resultados para pression
Resumo:
Le but de cette étude est de comparer certains paramètres anthropométriques (le poids, l'indice de masse corporelle, le pli adipeux du triceps, la somme des plis cutanés) et physiologiques (la performance en minutes au test Léger navette, la pression systolique et diastolique). L'expérimentation d'une durée de trois semaines se réalise à l'école La Maisonnée, située à Rock Forest et regroupe 80 sujets âgés de 7 à 11 ans qui sont divisés en deux groupes. Le groupe contrôle de 40 sujets ayant une pression artérielle normale (< 90e percentile selon l'âge et le sexe) et le groupe expérimental est composé de 40 sujets ayant une pression artérielle élevée (> 90e percentile selon l'âge et le sexe). Les résultats démontrent des différences significatives entre le groupe contrôle et le groupe expérimental au niveau de la pression systolique et diastolique, du poids, de l'indice de masse corporelle, du pli adipeux du triceps, de la somme des plis cutanés et de la performance en minutes au test Léger navette. De plus, cette étude révèle qu'il y a beaucoup plus d'enfants du deuxième cycle que du premier cycle du primaire qui ont une pression artérielle élevée. En sachant maintenant que l'hypertension est un facteur de risque important de la maladie coronarienne et qu'elle est souvent une conséquence de l'obésité, des mesures devraient être entreprises afin de prévenir ce problème chez l'enfant. En terminant, un programme d'activité physique pourrait être implanté dans les écoles pour diminuer ce problème qui prend de plus en plus d'ampleur à chaque année.
Resumo:
La nanomédecine est porteuse de nombreuses promesses et bienfaits pour l’humanité. Or, l’opposition massive à l’introduction des organismes génétiquement modifiés (OGM) a montré que les promesses attendues des innovations technologiques ne sont pas garantes de leur acceptabilité. L’absence d’une démarche axée sur les impacts possibles, l’acceptation et l’acceptabilité de l’utilisation des nanotechnologies en médecine pourrait toutefois conduire à un manque d’adéquation entre les applications développées et les besoins et valeurs des acteurs sociaux. À partir d’un cadre conceptuel interdisciplinaire et du contexte clinique de la prévention et du traitement des plaies de pression chez les personnes diabétiques, les variables de perception d’impacts, d’acceptation et d’acceptabilité ont été opérationnalisées et étudiées afin d’explorer la relation entre ces variables, mais surtout de mieux comprendre l’influence des types de profil des répondants sur ces variables. L’exploration des impacts perçus, mobilisés et pondérés sur un ensemble d’enjeux a permis d’établir un premier portrait de l’acceptabilité de dispositifs à base de nanotubes de carbones utilisés dans le contexte clinique de soins des plaies de pression. Une approche descriptive-exploratoire fondée sur un devis mixte avec triangulation séquentielle des données a été employée. Un questionnaire a été développé et prétesté à l’aide d’entrevues cognitives (n = 35). Les données ont ensuite été recueillies en deux phases, d’abord par le biais d’un questionnaire en ligne (n = 270), puis par des entrevues individuelles semi-dirigées (n = 23). L’échantillon final se compose de trois types de profil, soit des professionnels de la santé, des personnes diabétiques et non-diabétiques. L’opérationnalisation du cadre de référence a permis de distinguer les dimensions individuelle/ sociale des concepts d’acceptation et d’acceptabilité. Plus encore, l’importance des types de profil dans l’étude de ces variables complémentaires à la perception des impacts a été démontrée, notamment par la mise en lumière du paradoxe des professionnels de la santé dans le jugement d’acceptabilité. Ces distinctions invitent à dépasser les approches traditionnelles d’acceptation technologique en axant davantage sur les impacts perçus et valorisés/priorisés dans la formation du jugement d’acceptabilité. Le développement d’applications en nanomédecine bénéficierait d’une meilleure compréhension de la formation du jugement d'acceptabilité et l'influence du type de profil sur celui-ci.
Resumo:
Le contexte de ce projet de recherche est celui de la stabilité des barrages-poids et aborde le besoin d’évaluation de la résistance de l’interface béton-rocher. Puisqu’il est techniquement difficile d’évaluer si l’interface est liée ou non, la cohésion réelle et sa contribution à la résistance au cisaillement sont souvent négligées et ce sujet précis est peu abordé dans la littérature. Un lien direct peut être fait entre cette non-considération et des travaux de stabilisation réalisés sur des ouvrages hydrauliques. Cette étude a comme objectif la caractérisation de la cohésion réelle dans le but de déterminer s’il est sécuritaire d’incorporer sa contribution dans l’évaluation de stabilité des barrages-poids. Pour ce faire, il est nécessaire d’évaluer les comportements en traction et en cisaillement de l’interface et d’analyser comment ils sont affectés par des paramètres importants telle la rugosité de l’interface. Cette caractérisation est faite à l’aide d’un programme expérimental sur 66 répliques d’interfaces béton-rocher en mortier. La rugosité est évaluée à l’aide d’un profilomètre laser et du paramètre Z2. Les répliques ont fait l’objet d’essais de traction directe, de traction par pression de fluide et de cisaillement direct. L’influence de la rugosité d’interface et de la résistance à la compression uniaxiale (UCS) des matériaux sur les résistances à la traction et au cisaillement est évaluée grâce à l’analyse des variances (ANOVA). Des essais supplémentaires ont permis d’approfondir la compréhension du mécanisme de rupture en cisaillement. Les résultats indiquent une résistance à la traction moyenne de l’interface liée de 0,62 MPa et une cohésion (en cisaillement) moyenne de 3,1 MPa. L’ANOVA montre une augmentation significative de la résistance à la traction avec la rugosité et une augmentation significative de la résistance au cisaillement au pic avec la rugosité, l’UCS et la contrainte normale. Il a aussi été observé que le pas d’échantillonnage a un impact important sur la valeur de Z2. Les résultats suggèrent qu’une valeur minimale de cohésion de 100 à 200 kPa pourrait être utilisée dans la mesure où il peut être démontré que l’interface est liée. Cette condition pourrait d’ailleurs constituer un sujet de recherche s’inscrivant dans la continuité des travaux réalisés.
Resumo:
Abstract : The major objective of our study is to investigate DNA damage induced by soft X-rays (1.5 keV) and low-energy electrons (˂ 30 eV) using a novel irradiation system created by Prof. Sanche’s group. Thin films of double-stranded DNA are deposited on either glass and tantalum substrates and irradiated under standard temperature and pressure surrounded by a N[subscript 2] environment. Base release (cytosine, thymine, adenine and guanine) and base modifications (8-oxo-7,8-dihydro -2’-deoxyguanosine, 5-hydroxymethyl-2’-deoxyuridine, 5-formyl-2’-deoxyuridine, 5,6-dihydrothymidine and 5,6-dihydro-2’-deoxy uridine) are analyzed and quantified by LC-MS/MS. Our results reveal larger damage yields in the sample deposited on tantalum than those on glass. This can be explained by an enhancement of damage due to low-energy electrons, which are emitted from the metal substrate. From a comparison of the yield of products, base release is the major type of damage especially for purine bases, which are 3-fold greater than base modifications. A proposed pathway leading to base release involves the formation of a transient negative ion (TNI) followed by dissociative electron attachment (DEA) at the N-g lycosidic bond. On the other hand, base modification products consist of two major types of chemical modifications, which include thymine methyl oxidation products that likely arises from DEA from the methyl group of thymine, and 5,6-dihydropyrimidine that can involve the initial addition of electrons, H atoms, or hydride ions to the 5,6-pyrimidine double bond.
Resumo:
Le contrôle de bruit est un domaine de recherche très fertile. Que ce soit pour du contrôle actif ou passif, de nombreuses recherches sont menées pour améliorer les méthodes existantes ou pour trouver de nouveaux procédés. Ainsi, dans le domaine du contrôle actif, de nouveaux moyens de production d’anti-bruit sont développés en vue de les substituer aux duos amplificateur/haut-parleur fragiles, gourmands en énergie et encombrants. Le sujet abordé ici est la conception et la réalisation d’un prototype capable de générer de forts niveaux de bruit à partir d’une source d’écoulement d’air à fort débit. Le prototype servira ensuite de source pour le contrôle actif du bruit d’un ventilateur. Pour atteindre ces performances, un design simple a été développé : l’obstruction périodique de l’écoulement d’air comprimé génère une source acoustique harmonique à la fréquence d’obstruction de l’écoulement. Le contrôle de la vitesse de l’obstruction gère la fréquence et la phase de l’anti-bruit émis. Le dispositif conçu dans ce projet permet de générer un bruit tonal réglé en phase et en fréquence sur une référence, pour une pression acoustique de 110 dB à 1 m.
Resumo:
Résumé : Problématique : Le trouble de la personnalité limite (TPL) est une condition psychiatrique touchant environ 1 % de la population et 20 % de la clientèle recevant des services en psychiatrie (Gunderson et Links, 2008). L’un des domaines du fonctionnement dans la vie quotidienne le plus touché chez cette population est le travail (Gunderson et al., 2011; Larivière et al., 2010; Zanarini et al., 2012). À notre connaissance, aucune étude n’a décrit de façon approfondie la participation au travail des personnes présentant un TPL. Objectif : L’objectif général de cette étude vise à identifier et à décrire les obstacles, les facilitateurs de même que les solutions possibles de la participation au travail des personnes présentant un TPL selon leur point de vue et celui de leurs intervenants. Méthodologie : Une étude de cas multiples a été utilisée (Yin, 2009). Neuf cas ont été étudiés selon trois contextes socioprofessionnels de la participation au travail : A. Réintégration (personne en invalidité), B. Retour (personne en absence maladie) et C. Maintien au travail. Pour chacun des contextes, trois dyades incluant une personne avec un TPL (âgée de 18 à 55 ans) et son intervenant soutenant la participation au travail ont été interviewées. Résultats: Les résultats qualitatifs (n = 18) ont démontré que la participation au travail des personnes présentant un TPL est influencée par des facteurs individuels (p. ex., la réaction face à la pression et aux relations de travail, la régulation émotionnelle) ainsi que des facteurs liés aux acteurs et procédures des systèmes de l’assurance, organisationnel et de la santé (p. ex., la collaboration et la communication entre les acteurs, l’alliance de travail entre les acteurs et la personne présentant un TPL, les mesures d’accommodement et de soutien naturel dans le milieu de travail). Conclusions et implication clinique : Cette étude met en lumière le défi important et spécifique que représente la participation au travail pour les personnes présentant un TPL. Elle implique des facteurs personnels et environnementaux qui doivent être considérés par tous les acteurs impliqués (les utilisateurs de services, les professionnels de la santé, les assureurs et les employeurs). Les programmes de réadaptation au travail actuels devraient être bonifiés et coordonnés adéquatement avec les thérapies spécialisées afin d’aborder de manière optimale les enjeux liés à la participation au travail des personnes présentant un TPL.
Resumo:
L’implantation d’organisations d’économie sociale et le développement de pratiques de consommation collaboratives contribuent à l’établissement d’un système économique durable permettant autant de réduire la pression sur l’environnement que de renforcer les liens au sein des communautés. Afin de favoriser l’implantation de ce type d’organisation, il faut tenir compte des facteurs qui influencent leur processus de prédémarrage et de démarrage. Pour cette raison, une enquête a été menée auprès de six entrepreneurs québécois pour identifier les difficultés à surmonter ou les éléments ayant facilité le processus de lancement de leur organisation. L’objectif de cet essai est de formuler des recommandations qui permettront aux décideurs politiques, gestionnaires et aspirants entrepreneurs d’améliorer leur approche face à ce type d’organisation afin de favoriser leur éclosion au Québec. L’analyse des entretiens démontre qu’il est critique pour les organisations d’économie sociale collaboratives d’attirer des utilisateurs autour du projet et de les mobiliser. Pour ce faire, les entrepreneurs ont dû élaborer un modèle d’affaires qui propose un service abordable et professionnel où l’interaction avec les individus est centrale, ainsi qu’une structure organisationnelle bien définie qui offre aux utilisateurs l’opportunité de s’impliquer activement dans le projet. De plus, l’établissement de partenariats doit être préconisé afin de donner de la visibilité au projet, ainsi que pour bâtir une crédibilité auprès de la communauté locale et des organismes d’accompagnement, d’autant plus que ces organisations peuvent fournir une aide financière et technique cruciale aux entrepreneurs. Malgré ceci, les barèmes des organismes d’accompagnement et la réglementation en vigueur semblent peu adaptés aux nouveaux modèles d’affaires collaboratifs, ce qui peut nuire à leur développement. À partir de ces résultats, il est recommandé aux décideurs politiques d’appuyer officiellement ces initiatives en développant notamment des partenariats publics-privés, ainsi qu’en assouplissant la réglementation liée à l’émission de permis pour ce type d’entreprise. Pour les entrepreneurs, il est suggéré de solliciter l’aide d’experts lors de l’élaboration de leur projet auprès d’incubateurs, d’initiatives collaboratives ou autres organismes. Enfin, il leur est conseillé de délimiter les pouvoirs des gestionnaires, de définir les tâches et de former les utilisateurs engagés afin d'inciter la cohésion et l’efficacité au sein de leurs organisations et pour assurer la qualité des services offerts.
Resumo:
Abstract : The structural build-up of fresh cement-based materials has a great impact on their structural performance after casting. Accordingly, the mixture design should be tailored to adapt the kinetics of build-up given the application on hand. The rate of structural build-up of cement-based suspensions at rest is a complex phenomenon affected by both physical and chemical structuration processes. The structuration kinetics are strongly dependent on the mixture’s composition, testing parameters, as well as the shear history. Accurate measurements of build-up rely on the efficiency of the applied pre-shear regime to achieve an initial well-dispersed state as well as the applied stress during the liquid-solid transition. Studying the physical and chemical mechanisms of build-up of cement suspensions at rest can enhance the fundamental understanding of this phenomenon. This can, therefore, allow a better control of the rheological and time-dependent properties of cement-based materials. The research focused on the use of dynamic rheology in investigating the kinetics of structural build-up of fresh cement pastes. The research program was conducted in three different phases. The first phase was devoted to evaluating the dispersing efficiency of various disruptive shear techniques. The investigated shearing profiles included rotational, oscillatory, and combination of both. The initial and final states of suspension’s structure, before and after disruption, were determined by applying a small-amplitude oscillatory shear (SAOS). The difference between the viscoelastic values before and after disruption was used to express the degree of dispersion. An efficient technique to disperse concentrated cement suspensions was developed. The second phase aimed to establish a rheometric approach to dissociate and monitor the individual physical and chemical mechanisms of build-up of cement paste. In this regard, the non-destructive dynamic rheometry was used to investigate the evolutions of both storage modulus and phase angle of inert calcium carbonate and cement suspensions. Two independent build-up indices were proposed. The structural build-up of various cement suspensions made with different cement contents, silica fume replacement percentages, and high-range water reducer dosages was evaluated using the proposed indices. These indices were then compared to the well-known thixotropic index (Athix.). Furthermore, the proposed indices were correlated to the decay in lateral pressure determined for various cement pastes cast in a pressure column. The proposed pre-shearing protocol and build-up indices (phases 1 and 2) were then used to investigate the effect of mixture’s parameters on the kinetics of structural build-up in phase 3. The investigated mixture’s parameters included cement content and fineness, alkali sulfate content, and temperature of cement suspension. Zeta potential, calorimetric, spectrometric measurements were performed to explore the corresponding microstructural changes in cement suspensions, such as inter-particle cohesion, rate of Brownian flocculation, and nucleation rate. A model linking the build-up indices and the microstructural characteristics was developed to predict the build-up behaviour of cement-based suspensions The obtained results showed that oscillatory shear may have a greater effect on dispersing concentrated cement suspension than the rotational shear. Furthermore, the increase in induced shear strain was found to enhance the breakdown of suspension’s structure until a critical point, after which thickening effects dominate. An effective dispersing method is then proposed. This consists of applying a rotational shear around the transitional value between the linear and non-linear variations of the apparent viscosity with shear rate, followed by an oscillatory shear at the crossover shear strain and high angular frequency of 100 rad/s. Investigating the evolutions of viscoelastic properties of inert calcite-based and cement suspensions and allowed establishing two independent build-up indices. The first one (the percolation time) can represent the rest time needed to form the elastic network. On the other hand, the second one (rigidification rate) can describe the increase in stress-bearing capacity of formed network due to cement hydration. In addition, results showed that combining the percolation time and the rigidification rate can provide deeper insight into the structuration process of cement suspensions. Furthermore, these indices were found to be well-correlated to the decay in the lateral pressure of cement suspensions. The variations of proposed build-up indices with mixture’s parameters showed that the percolation time is most likely controlled by the frequency of Brownian collisions, distance between dispersed particles, and intensity of cohesion between cement particles. On the other hand, a higher rigidification rate can be secured by increasing the number of contact points per unit volume of paste, nucleation rate of cement hydrates, and intensity of inter-particle cohesion.
Resumo:
Dans ce travail d'essai, nous nous intéressons au rôle et aux responsabilités du conseil d’administration ; cela, du fait que le phénomène de conseil d'administration est l'une des bases essentielles qui caractérise la gestion dans les structures économiques et sociales de mon pays: la Guinée. Mais, compte tenu de plusieurs facteurs dont nous énumérerons certains dans ce travail, nos conseils d'administration ont des responsabilités limitées face à leurs membres et leurs activités restreintes par une participation honorifique des membres du conseil d'administration à la gestion et au contrôle des affaires de la coopérative. Cette participation doit pourtant être conforme à l’évolution des lois et des attentes des membres de la coopérative, également d'un public devenu de plus en plus exigeant et revendicateur. Le conseil d'administration aura toujours à répondre à une triple responsabilité ; face au gouvernement par le biais des lois, aux membres et aux autres groupes de pression possibles: clients, employés et grand public. L'administrateur aura dès lors un rôle important à jouer, il devra être mieux informé et on exigera de lui une excellente capacité et une plus grande disponibilité afin d'être toujours pleinement responsable. Vu cette situation, nous voulons traiter du sujet sur le conseil d'administration de caisses populaires du Québec, pour nous permettre d'avoir une connaissance générale du rôle, des responsabilités et du fonctionnement d'un conseil d’administration. Cet essai terminé, nous l'espérons, nous servira plus tard de référence (guide) dans nos activités quotidiennes en Guinée.
Resumo:
Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire.
Resumo:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.
Resumo:
L’industrie des biocarburants de deuxième génération utilise, entre autre, la biomasse lignocellulosique issue de résidus forestiers et agricoles et celle issue de cultures énergétiques. Le sorgho sucré [Sorghum bicolor (L.) Moench] fait partie de ces cultures énergétiques. L’intérêt croissant de l’industrie agroalimentaire et des biocarburants pour cette plante est dû à sa haute teneur en sucres (jusqu’à 60% en masse sèche). En plus de se développer rapidement (en 5-6 mois), le sorgho sucré a l’avantage de pouvoir croître sur des sols pauvres en nutriments et dans des conditions de faibles apports en eau, ce qui en fait une matière première intéressante pour l’industrie, notamment pour la production de bioéthanol. Le concept de bioraffinerie alliant la production de biocarburants à celle de bioénergies ou de bioproduits est de plus en plus étudié afin de valoriser la production des biocarburants. Dans le contexte d’une bioraffinerie exploitant la biomasse lignocellulosique, il est nécessaire de s’intéresser aux différents métabolites extractibles en plus des macromolécules permettant la fabrication de biocarburants et de biocommodités. Ceux-ci pouvant avoir une haute valeur ajoutée et intéresser l’industrie pharmaceutique ou cosmétique par exemple. Les techniques classiques pour extraire ces métabolites sont notamment l’extraction au Soxhlet et par macération ou percolation, qui sont longues et coûteuses en énergie. Ce projet s’intéresse donc à une méthode d’extraction des métabolites primaires et secondaires du sorgho sucré, moins coûteuse et plus courte, permettant de valoriser économiquement l’exploitation industrielle du de cette culture énergétique. Ce travail au sein de la CRIEC-B a porté spécifiquement sur l’utilisation d’une émulsion ultrasonique eau/carbonate de diméthyle permettant de diminuer les temps d’opération (passant à moins d’une heure au lieu de plusieurs heures) et les quantités de solvants mis en jeu dans le procédé d’extraction. Cette émulsion extractive permet ainsi de solubiliser à la fois les métabolites hydrophiles et ceux hydrophobes. De plus, l’impact environnemental est limité par l’utilisation de solvants respectueux de l’environnement (80 % d’eau et 20 % de carbonate de diméthyle). L’utilisation de deux systèmes d’extraction a été étudiée. L’un consiste en la recirculation de l’émulsion, en continu, au travers du lit de biomasse; le deuxième permet la mise en contact de la biomasse et des solvants avec la sonde à ultrasons, créant l’émulsion et favorisant la sonolyse de la biomasse. Ainsi, en réacteur « batch » avec recirculation de l’émulsion eau/DMC, à 370 mL.min[indice supérieur -1], au sein du lit de biomasse, l’extraction est de 37,91 % en 5 minutes, ce qui est supérieur à la méthode ASTM D1105-96 (34,01 % en 11h). De plus, en réacteur « batch – piston », où la biomasse est en contact direct avec les ultrasons et l’émulsion eau/DMC, les meilleurs rendements sont de 35,39 % en 17,5 minutes, avec 15 psig de pression et 70 % d’amplitude des ultrasons. Des tests effectués sur des particules de sorgho grossières ont donné des résultats similaires avec 30,23 % d’extraits en réacteur « batch » avec recirculation de l’émulsion (5 min, 370 mL.min[indice supérieur -1]) et 34,66 % avec le réacteur « batch-piston » (30 psig, 30 minutes, 95 % d’amplitude).
Resumo:
L'enfant ayant une déficience motrice cérébrale (DMC) légère présente des déficits posturaux qui limitent son intégration sociale. L'hippothérapie est une forme d'intervention utilisant le mouvement du cheval pour stimuler des réajustements posturaux. L’objectif de cette recherche était de quantifier l’effet de 10 semaines d’hippothérapie sur le contrôle postural et la motricité d'enfants ayant une DMC légère. Un devis pré-expérimental à mesures répétées où chaque enfant (n=13) est son propre contrôle a été utilisé. Les critères d’inclusion étaient: être âgés entre 4 et 16 ans et avoir une DMC légère. L’intervention d’une durée de 10 semaines consistait en une séance par semaine d’hippothérapie de 30 minutes, où l'enfant était placé dans différentes positions sur le cheval. La motricité globale, particulièrement la capacité à se tenir debout, marcher, courir et sauter a été mesurée par les dimensions D et E du Gross Motor Function Measure (GMFM-88) et la coordination, la vitesse, la force et l’équilibre par le Bruininks-Oseretski Test of Motor Proficiency-Short Form (BOT2-SF). La motricité fine a été évaluée par différentes tâches de précision, d’intégration et de dextérité manuelle (BOT2-SF). Les variables biomécaniques évaluant la stabilité posturale en position assise et debout ont été quantifiées par le déplacement du centre de pression (CdeP). Le déplacement des membres supérieurs a été enregistré lors de tâches unilatérales à l'aide d’un système d’analyse tridimensionnelle du mouvement (VICON). Treize sujets (âgés de 7,3 ± 2,7 ans) ont été évalués avant (mesure de base), après l’intervention et à 10 semaines post-intervention (mesure de suivi). La stabilité posturale de l’enfant sur le cheval a été évaluée à l’aide de modules inertiels multiaxiaux fixés sur le cheval et sur l’enfant (tête, tronc) à deux temps pendant l’intervention. À la suite de l’intervention, la motricité globale s’est améliorée significativement (GMFM-88 dimensions; p=0,005 et BOT2-SF total; p=0,006), et spécifiquement au niveau de la force des abdominaux et des membres supérieurs (p=0,012), de l’équilibre (p=0,025) et des activités de précision de la main (p=0,013). Les analyses du contrôle postural sur le cheval montrent une augmentation de la fréquence cumulée dans la direction médiolatérale (M/L) (p=0,033), et une diminution de l’amplitude de la fréquence cumulée en vertical (p=0,007). Ces résultats peuvent s’interpréter comme étant une augmentation de la rapidité d'adaptation dans la direction M/L doublée d'un amortissement du tronc diminué dans l’axe vertical. Le contrôle postural debout statique s'est amélioré (p=0,013) dans l'axe M/L attribuable aux enfants diplégiques de l'étude. Ces résultats se sont maintenus après la fin de l’intervention. Aucune amélioration du déplacement des membres supérieurs n'a été notée. Nos résultats permettent de suggérer l’utilisation de l'hippothérapie, par les professionnels de la réadaptation, comme complément à l'intervention traditionnelle.
Resumo:
Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.
Resumo:
L’objectif de cet essai est d’élaborer des outils afin de connaître, comprendre et suivre les fuites de nitrates d’origine agricole dans le périmètre du SAGE Rance Frémur baie de Beaussais. Les outils sont de deux catégories : des références agronomiques locales et des indicateurs de suivi. Le premier type d’outils doit permettre aux exploitants d’adapter leurs pratiques agricoles en fonction du contexte pédoclimatique, afin de réduire l’impact négatif sur les fuites de nitrates. Le second type d’outils a pour but d’évaluer la situation des fuites de nitrates à l’échelle du bassin versant. Ces indicateurs ont pour objectif de suivre les pratiques agricoles en lien avec les fuites de nitrates et de suivre l’état des milieux aquatiques pour ce paramètre chimique. Avant de proposer des outils adaptés, il est nécessaire de comprendre les enjeux liés aux nitrates sur le territoire étudié. Une bonne connaissance du territoire s’accompagne de connaissances théoriques indispensables sur les mécanismes responsables des fuites de nitrates. Ces mécanismes sont influencés par plusieurs facteurs en interaction : les facteurs environnementaux et les facteurs humains. Pour les facteurs environnementaux, plusieurs projets scientifiques spécifiques sont en œuvre sur le territoire pour mieux les appréhender. Concernant les facteurs humains, plusieurs dispositions politiques et réglementaires les encadrent, encourageant les bonnes pratiques, de gré ou de force. Parmi elles, la Directive Nitrates en vigueur dans l’Union européenne depuis 1991 fait figure de proue. À l’échelle locale, le SAGE révisé de la Rance, du Frémur et de la baie de Beaussais a été approuvé par arrêté préfectoral et est en application depuis décembre 2013. Ce document a pour but d’atteindre le bon état écologique des eaux. Plusieurs dispositions concernent le monde agricole et certaines d’entre elles ciblent spécifiquement la réduction des fuites d’azote. L’essai vise à mettre en œuvre deux d’entre elles, l’orientation de gestion n°17 (Élaboration de référentiels agronomiques locaux) et la disposition n°39 (Connaître et suivre la pression azotée et les pratiques agricoles). La thématique des pollutions liées à l’azote alimente les revues scientifiques et techniques depuis plus de 15 ans, avec une quantité importante d’outils préconisés qui s’ajoutent les uns aux autres. Or pour une mise en œuvre efficace sur le territoire, il est nécessaire de restreindre ce nombre : ce qui implique une sélection méthodique des outils les plus pertinents pour satisfaire l’objectif de l’essai. Au total, une dizaine de références agronomiques locales sont répertoriées et huit indicateurs de suivi sont proposés. Un tableau de bord a été élaboré afin de faciliter l’articulation et l’interprétation des indicateurs.