15 resultados para Méthode Kangourou
em Université Laval Mémoires et thèses électroniques
Resumo:
Cette recherche vise à étudier l’impact d’interventions réalisées par les parents dans l’unité néonatale de soins intensifs. Plus spécifiquement, le premier objectif est de documenter les effets différentiels de la Méthode Mère Kangourou « MMK » accompagnée ou non du Massage en incubateur «MI » ou du Massage en Position Kangourou « MPK » et des Soins Traditionnels «ST » accompagnés ou non du massage dans l’incubateur sur la croissance physique mesurée par le poids, la taille et le périmètre crânien pendant une période de 5 et 15 jours dans l’unité néonatale et l’impact à 40 semaines d’âge gestationnel. Le second objectif est de comparer, chez des enfants qui bénéficient de la « MMK » la valeur ajoutée du « MPK » ou du «MI » sur le neuro-développement à 6 et 12 mois d’âge corrigé de l’enfant. Un échantillon total de 198 enfants et leur famille a été recruté de la façon suivante dans trois hôpitaux de Bogota. Dans chaque hôpital, 66 sujets ont été répartis aléatoirement à deux conditions. Ces hôpitaux ont été choisis afin de tester les effets de diverses conditions expérimentales et de diminuer les bais de sélection. Dans chaque hôpital, deux techniques ont été assignées aléatoirement. Il s’agit, dans le premier, de la « MMK & MPK » vs « MMK & MI ». Dans le second, « MMK sans massage » vs « MMK & MI ». Dans le troisième, « MI » a été comparé aux « ST » ce qui implique une absence de contact physique continu des bébés avec leurs parents. Les résultats rapportés dans le premier article sont à l’effet que, dans le premier hôpital, il y a un effet compensatoire de l’intervention « MMK & MPK » sur la perte physiologique du poids de l’enfant prématuré dans les 15 premiers jours de vie avec un impact sur le poids à 40 semaines d’âge gestationnel, sur la durée du portage kangourou et sur la durée d’hospitalisation totale. Aucun effet sur le périmètre crânien ou la taille n’est apparu. Dans le deuxième hôpital, aucune différence significative n’est rapportée pour le poids sauf quand l’intervention est commencée après le 10ième jours de vie alors que l’enfant « MPK» semble grossir mieux que le «MMK avec MI». Finalement, dans le troisième hôpital il n’y a aucun effet du massage sur les variables anthropométriques, le groupe avec MI grossissant moins vite avec un léger impact sur le poids à 40 semaines. Cela pourrait être dû à la perte de chaleur due à l’ouverture de l’incubateur quand l’enfant est très immature. Dans le second article, les 66 enfants de l’hôpital sont répartis aléatoirement dans le groupe « MMK & MPK» vs le groupe « MMK & MI», ont complété, à 6 et 12 mois d’âge corrigé, un test de neuro-développement, le Griffiths. Les résultats à 6 mois ne montrent aucune différence entre les 2 interventions, mais a 12 mois le IQ semble dépendant du nombre de jours d’hospitalisation de l’enfant, cette durée d’hospitalisation correspond au temps que met l’enfant à se stabiliser physiquement et correspond également au temps que mettent la mère et l’enfant à s’adapter à la méthode kangourou. Une fois, l’adaptation kangourou réussie, la dyade mère enfant sort avec l’enfant toujours en position kangourou. Le temps d’hospitalisation correspond au temps que met l’enfant à être éligible à l’apprentissage de la MMK par la mère. À 12 mois les deux groupes montrent des résultats équivalents, mais des différences positives sont apparues pour le groupe « MMK & MPK» dans les sous échelle Coordination Oculo Manuelle et Audition et Langage du test Griffiths. Dans l’ensemble, les résultats suggèrent que la pratique des deux interventions non traditionnelles peut contribuer à une meilleure croissance physique dans nos cohortes. Le gain de poids du bébé, notamment, est affecté par l’intervention MPK (Hôpital 1) ou sans l’ajout du Massage (Hôpital 2). Par ailleurs, le massage en incubateur n’a pas de différence significative en comparaison aux soins traditionnels, ces interventions ont toutefois un impact mineur (tendances) sur le neuro développement à 6 et 12 mois d’âge corrigé dans cette étude.
Resumo:
La construction dans l’Arctique nécessite une connaissance précise des propriétés thermiques et géotechniques du pergélisol. La connaissance de ces propriétés est également nécessaire pour le paramétrage des modèles de transfert de chaleur. Des études antérieures ont démontré le grand potentiel de l’utilisation de la tomodensitométrie pour les mesures du volume des composantes du pergélisol et la visualisation de la cryostructure. Une nouvelle approche est proposée pour mesurer la conductivité thermique du pergélisol. Les objectifs généraux de ce projet sont (1) d’élaborer une nouvelle méthode de caractérisation du pergélisol à l’aide de la tomodensitométrie et de modèle éprouvés et (2) de comparer et mettre au point une méthode novatrice pour mesurer la conductivité thermique et des paramètres géotechniques. Les résultats démontrent que les tests effectués à l’aide de la tomodensitométrie donnent des résultats d’une valeur scientifique comparable aux autres méthodes existantes de mesure de déjà existantes de conductivité thermique du pergélisol.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
Les charpentes en bois doivent inévitablement inclure des assemblages pouvant transférer les charges entre les éléments de façon adéquate pour assurer l’intégrité de la structure. Les assemblages sont une partie critique des structures en bois puisque dans la plupart des cas, ce sont ceux-ci qui permettent de dissiper l’énergie et d’obtenir un mode de rupture ductile sous les charges sismiques. Ce mode de rupture est préférable, puisqu’il donne lieu à une grande déformation avant effondrement, permettant ainsi une évacuation des occupants en toute sécurité lors de tremblement de terre. Les assemblages à petits diamètres tels que les clous, les rivets et les vis sont fréquemment utilisés dans les constructions en bois et on suppose qu’ils amènent une rupture ductile bien qu’il soit impossible pour les concepteurs de prédire exactement le mode de rupture à l’aide de la méthode de calcul actuelle. De plus, les rivets ont une application très limitée dû au fait que la méthode de calcul utilisée actuellement s’applique à des configurations, essences et types de produits de bois très spécifiques. L’objectif de ce projet est d’évaluer une nouvelle méthode de calcul proposée par des chercheurs de Nouvelle-Zélande, Zarnani et Quenneville, pour les assemblages à rivets, mais adaptable pour les assemblages de bois à attaches de petits diamètres. Elle permet au concepteur de déterminer avec précision le mode de rupture des assemblages de différentes configurations avec différents produits de bois. Plus de 70 essais sur les assemblages à rivets et à clous résistants à des charges variant de 40kN à 800kN ont été effectués dans le cadre de ce projet de recherche afin de valider l’utilisation de cette méthode avec le produit du bois lamellé-collé canadien Nordic Lam et la comparer avec celle présentement utilisée au Canada. Les modes de rupture ductile, fragile et mixte ont été prévus avec l’emphase sur le mode fragile puisque c’est celui-ci qui est le plus variable et le moins étudié. Les assemblages en bois lamellé-collé Nordic Lam étaient cloués ou rivetés selon différentes configurations variant de 18 à 128 clous ou rivets. Les résultats démontrent une bonne prédiction de la résistance et des modes de rupture des assemblages à clous et à rivets. Pour quelques configurations des assemblages à rivets, les prédictions de la nouvelle méthode sont plus élevées qu’avec la méthode actuelle. Les assemblages à clous ont démontré des ruptures de la tige de clous au niveau du plan de cisaillement lors de tous les essais effectués, ce qui ne correspond pas à un mode ductile ou fragile prévue par la méthode de calcul.
Resumo:
Au cours de ces dernières années, les techniques d’échantillonnage équilibré ont connu un regain d’intérêt. En effet, ces techniques permettent de reproduire la structure de la population dans des échantillons afin d’améliorer l’efficacité des estimations. La reproduction de cette structure est effectuée par l’introduction des contraintes aux plans de sondage. Encore récemment, des nouvelles procédures d’échantillonnage équilibré ont été proposées. Il s’agit notamment de la méthode du cube présentée par Deville et Tillé (2004) et de l’algorithme réjectif de Fuller (2009). Alors que la première est une méthode exacte de sélection, la seconde est une approche approximative qui admet une certaine tolérance dans la sélection. Alors, après une brève présentation de ces deux méthodes dans le cadre d’un inventaire de pêcheurs, nous comparons à l’aide de simulations Monte Carlo, les plans de sondage produits par ces deux méthodes. Aussi, cela a été l’occasion pour nous de vérifier si ces méthodes modifient les probabilités de sélection des unités.
Resumo:
Le yogourt grec, pouvant être obtenu par concentration du yogourt traditionnel par ultrafiltration (UF), connaît une croissance exceptionnelle en Amérique du Nord (+100% depuis 2012), et représente le premier segment de marché des produits laitiers fermentés en 2014. Cependant, d’un point de vue environnemental, la production du yogourt grec fait face à plusieurs enjeux et défis. Son élaboration nécessite trois fois plus de lait que le yogourt traditionnel de par l’étape de concentration nécessaire à l’atteinte de la concentration protéique cible. De plus, l’étape d’UF du yogourt génère un perméat acide (coproduit du yogourt) difficilement valorisable. Néanmoins, une alternative consistant à effectuer l’étape d’UF sur le lait avant sa fermentation permet d’éliminer la production du perméat acide, et génère un perméat de lactosérum doux déprotéiné dont les voies de valorisation sont davantage connues. Cette stratégie pourrait donc potentiellement réduire l’impact environnemental du procédé et générer des coproduits plus facilement valorisables, améliorant ainsi l’écoefficience du procédé de fabrication de yogourt grec. Dans cette optique, ce projet de recherche visait à comparer l’impact environnemental sur l’ensemble du cycle de vie de la production de yogourt grec selon deux procédés : en effectuant l’étape de concentration par UF avant l’étape de fermentation (UF LAIT), ou après (UF YOG) comme utilisé dans l’industrie. Ainsi, des expérimentations à échelle pilote ont été réalisées dans le but de comparer ces deux procédés. Le nouveau procédé (UF LAIT) permettrait une réduction des consommations d’énergie à l’étape de transformation étant donné que l’UF du lait avant fermentation permet de réduire la quantité de matière première à transformer d’environ un tiers. Cependant l’Analyse du Cycle de Vie (ACV) des deux procédés donne comme résultat un bilan environnemental défavorable à (UF LAIT) comparativement au procédé traditionnel (UF YOG) à cause d’une plus grande consommation de lait, qui est responsable d’environ 80% des impacts sur le cycle de vie du yogourt grec. Cet impact majeur pour UF LAIT l’est encore même lorsque dans une analyse de sensibilité le perméat doux de UF LAIT est alloué à l’étape d’UF contrairement au perméat acide de UF YOG qui est considéré comme un déchet non valorisable.
Resumo:
La réponse mécanique d’une cellule à une force externe permet d’inférer sa structure et fonction. Les pinces optiques s’avèrent une approche particulièrement attrayante pour la manipulation et caractérisation biophysique sophistiquée des cellules de façon non invasive. Cette thèse explore l’utilisation de trois types de pinces optiques couramment utilisées : 1) statiques (static), 2) à exposition partagée (time-sharing) et 3) oscillantes (oscillating). L’utilisation d’un code basé sur la méthode des éléments finis en trois dimensions (3DFEM) nous permet de modéliser ces trois types de piégeage optique afin d’extraire les propriétés mécaniques cellulaires à partir des expériences. La combinaison des pinces optiques avec la mécanique des cellules requiert des compétences interdisciplinaires. Une revue des approches expérimentales sur le piégeage optique et les tests unicellulaires est présentée. Les bases théoriques liant l’interaction entre la force radiative optique et la réponse mécanique de la cellule aussi. Pour la première fois, une simulation adaptée (3DFEM) incluant la diffusion lumineuse et la distribution du stress radiatif permet de prédire la déformation d’une cellule biconcave –analogue aux globules rouges—dans un piège statique double (static dual-trap). À l’équilibre, on observe que la déformation finale est donnée par l’espacement entre les deux faisceaux lasers: la cellule peut être étirée ou même comprimée. L’exposition partagée (time-sharing) est la technique qui permet de maintenir plusieurs sites de piégeage simultanément à partir du même faisceau laser. Notre analyse quantitative montre que, même oscillantes, la force optique et la déformation sont omniprésentes dans la cellule : la déformation viscoélastique et la dissipation de l’énergie sont analysées. Une autre cellule-type, la tige cubique, est étudiée : cela nous permet d’élucider de nouvelles propriétés sur la symétrie de la réponse mécanique. Enfin, l’analyse de la déformation résolue en temps dans un piége statique ou à exposition partagée montre que la déformation dépend simultanément de la viscoélasticité, la force externe et sa forme tridimensionnelle. La technique à force oscillante (oscillating tweezers) montre toutefois un décalage temporel, entre la force et la déformation, indépendant de la forme 3D; cette approche donnerait directement accès au tenseur viscoélastique complexe de la cellule.
Resumo:
INTRODUCTION : La dyscalculie est un déficit spécifique d’apprentissage des mathématiques dont la prévalence s’étend de 1 à 10 %. La dyscalculie a des répercussions sur la scolarité et sur la vie quotidienne pouvant persister jusqu’à l’âge adulte et ainsi nuire à l’insertion professionnelle. Il existe actuellement deux grandes hypothèses cognitives pour expliquer la dyscalculie développementale : l’hypothèse d’un trouble cognitif général tel qu’un trouble de la mémoire de travail et l’hypothèse d’un trouble cognitif spécifiquement numérique. OBJECTIFS : L’objectif général de cette thèse doctorale est d’évaluer les déficits cognitifs numériques impliqués dans la dyscalculie développementale chez des enfants franco-québécois âgés entre huit et neuf ans, scolarisés en 3e année du primaire (1ère année du 2e cycle). Dans un premier temps, la thèse vise à recenser les écrits (étude 1) portant sur les déficits cognitifs numériques impliqués dans la dyscalculie. Ensuite, elle a pour objectifs spécifiques l’étude des capacités de traitement des quantités non symboliques (étude 2) et symboliques arabe et orale (étude 3), ainsi que de l’intégrité des représentations numériques sous forme de ligne numérique (étude 4). MÉTHODE : Des études comparatives d’un groupe d’enfants en difficulté mathématique (groupe dyscalculique) et d’un groupe d’enfants sans difficulté mathématique ont été réalisées. Des tâches faisant intervenir le code analogique (i.e. ensemble de points), le code arabe, le code oral, et la ligne numérique des nombres ont été administrées dans le but de mesurer les capacités de traitement, de production, et de reconnaissance des nombres. RÉSULTATS : La recension de la littérature permet d’établir qu’il n’existe aucun consensus quant aux déficits cognitifs numériques impliqués dans la dyscalculie (étude 1). Les résultats des études expérimentales montrent que les enfants dyscalculiques présentent des difficultés à traiter avec précision les petites quantités analogiques (étude 2) mais des habiletés préservées pour traiter approximativement les grandes quantités (étude 4). Ils présentent aussi des difficultés à traiter les nombres symboliques (arabe, oral) qui se manifestent par des atteintes de reconnaissance, de traitement et de production des nombres (études 3 et 4). Leur acuité numérique est également plus faible lorsqu’ils doivent traiter cognitivement les nombres symboliques sur une ligne numérique (étude 4). CONCLUSION : Les enfants dyscalculiques présentent un déficit du sens du nombre au niveau du traitement des petites quantités par le Système Numérique Précis, ainsi qu’un déficit de traitement des nombres symboliques. Ce déficit se manifeste à la fois par un déficit de reconnaissance, un déficit d’accès au sens du nombre via les codes symboliques et une acuité plus faible de la ligne numérique lorsqu’elle implique les nombres symboliques.
Resumo:
De nouvelles recommandations dans la production de canneberges suggèrent l’utilisation de l’irrigation souterraine, une méthode susceptible d’augmenter l’accumulation de sels dans le sol. Par ailleurs, le prélèvement d’eaux souterraines saumâtres dans des nappes résiduelles de la mer Champlain sous les dépôts d’argile dans la vallée du St-Laurent ou résultant du rehaussement des niveaux marins dans les zones côtières dû aux changements climatiques pourrait affecter la productivité des canneberges cultivées dans l’Est du Canada. Puisque très peu de données concernant la tolérance de la canneberge à la salinité sont disponibles, cette étude a été menée afin de déterminer si ces nouvelles recommandations pourraient éventuellement affecter le rendement de la plante. Dans une serre, des plants de canneberge ont été soumis à huit traitements obtenus à partir de deux méthodes d’irrigation (aspersion et irrigation souterraine) et quatre niveaux de salinité créés par des quantités croissantes de K2SO4 (125, 2 500, 5 000 et 7 500 kg K2O ha-1). L’irrigation souterraine a entraîné des conditions édaphiques plus sèches. Cependant, aucune différence significative de la conductivité électrique de la solution du sol (CEss) n’a été observée entre les deux types d’irrigation. Pourtant, les taux de photosynthèse et la nouaison étaient significativement plus faibles chez les plantes sous traitement d’irrigation souterraine. Les paramètres de croissance ont diminué de façon linéaire avec l’augmentation de la salinité alors que les paramètres de rendement ont connu une diminution quadratique avec l’élévation de la CEss. Une CEss moyenne de 3,2 dS m-1 pendant la floraison a provoqué une chute de 22% du taux relatif de photosynthèse et une diminution de 56% du rendement par rapport au témoin. Le suivi de la conductivité électrique du sol lors de l’implantation d’une régie d’irrigation souterraine de déficit en production de canneberges serait donc recommandable afin d’éviter le stress salin.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
L’immunopathogenèse de l’infection au VIH-1 est principalement causée par la déplétion des LT CD4 (lymphocytes T-CD4). Cette mort des LT CD4 dépend de plusieurs facteurs comme la lyse des LT CD4 infectés et la présence de vésicules extracellulaires et d’exosomes libérées par les cellules dendritiques et les LT CD4 infectés au VIH-1. L’analyse protéomique des exosomes issus des cellules dendritiques mises en culture avec le VIH-1 a révélé la présence de molécules pro-apoptotiques comme le Dap-3 (Death Associated Protein 3). Nous avons proposé comme hypothèse que le Dap-3 puisse être contenu dans d’autres types de vésicules extracellulaires et que le Dap-3 vésiculaire contribue à la déplétion des LT CD4. Après avoir optimisé l’immunobuvardage avec l’anti-Dap-3, nous avons déterminé la présence de Dap-3 dans les vésicules extracellulaires issues des cellules RAJI-CD4-DCIR infectées au VIH-1. L’utilisation de gradients de vélocité nous a permis d’observer la présence de Dap-3 dans les fractions du gradient contenant les exosomes issus des cellules RAJI-CD4-DCIR infectées, mais également dans d’autres fractions du gradient de vélocité encore non caractérisées. Chez les patients, nous avons montré une hétérogénéité des vésicules extracellulaires dans les fractions du gradient de vélocité issues des plasmas des patients VIH-1+. Ces résultats indiquent la présence de plusieurs populations de vésicules extracellulaires séparées par la méthode du gradient de vélocité. Enfin, la transfection des cellules RAJI-CD4-DCIR et des cellules dendritiques a été mise au point avec les ARN anti-sens de Dap-3 afin de produire éventuellement des vésicules Dap-3 négatives. Ce projet de recherche aura permis de valider les outils nécessaires à la poursuite de l’étude du rôle de Dap-3 dans la pathogenèse de l’infection au VIH-1.
Resumo:
Objectif : Évaluer l’association entre l’activité estimée du stéaryle-CoA désaturase (SCD) et le syndrome métabolique (MetS) chez une population adulte de la Polynésie française. Méthode : Étude transversale (2006-2007) de 178 adultes vivants en zone urbaine (Papeete, île de Tahiti, archipel de la Société) et rurale (Tubuai, île de Tubuai, archipel des Australes). L’activité estimée de la SCD a été calculée par le ratio produit/précurseur d’acides gras mesurés dans la membrane des érythrocytes (SCD = C16:1n-7/C16:0). Le MetS a été défini selon les critères du NIH (National Institutes of Health, États-Unis). L’analyse de covariance a été utilisée pour comparer la composition en acide gras sanguin et l’activité estimée de la SCD selon la présence de MetS et de différents critères du MetS. La régression logistique multiple a été utilisée afin d’évaluer l’association entre l’activité estimée de la SCD en quartiles et le risque de MetS. Résultats : La prévalence de surpoids était de 87 % (dont 59 % d’obèses) et celle du MetS de 32 %. Les niveaux du précurseur du C16:1n-7, l’acide palmitoléique (C16:0), entre les participants avec et sans MetS étaient similaires. Le niveau d’activité estimée de la SCD était plus élevé chez les participants avec MetS, plus particulièrement chez ceux avec une hypertriglycéridémie. Une activité estimée de la SCD plus élevée était associée positivement à un risque plus élevé de MetS (Ptendance=0,04). Conclusion : Les résultats de notre étude suggèrent qu’une augmentation de l’activité estimée de la SCD est associée positivement au risque de MetS chez la population adulte de la Polynésie française. Une étude longitudinale serait requise afin de confirmer cette association.
Resumo:
Ce mémoire présente l’étude numérique d’un emballement de turbine hydraulique axiale à échelle modèle. Cet état transitoire est simulé du point de meilleur rendement jusqu’à l’atteinte de 95% de la vitesse d’emballement. Pour ce faire, une méthodologie numérique est développée à l’aide du logiciel commercial ANSYS CFX en utilisant une approche "Unsteady Reynolds Averaged Navier-Stokes" avec modèle de turbulence k-ε. Cette méthodologie numérique a été validée grâce à des mesures expérimentales de pression acquises en situation d’emballement sur les aubes d’une roue de turbine axiale étudiée au Laboratoire de Machines Hydrauliques de l’Université Laval. La validation des simulations numériques a été réalisée grâce à des comparaisons dans les domaines temporel et fréquentiel entre les pressions mesurées expérimentalement et calculées numériquement. Les analyses fréquentielles en transitoire ont été effectuées à l’aide de transformées en ondelettes afin de représenter l’évolution temporelle du spectre de fréquence. Des analyses qualitatives de phénomènes hydrauliques prenant place dans la turbine sont aussi présentées. Les analyses effectuées ont permis de confirmer le développement d’un tourbillon en précession par rapport à la roue dans l’aspirateur provocant les fluctuations de pression dominantes à des fréquences subsynchrones. La comparaison entre les données expérimentales et numériques a permis de valider une stratégie de simulation transitoire et d’en définir les limites en vue de prochaines simulations d’emballement. Des tests supplémentaires sont suggérés pour améliorer la précision ou le niveau de confiance de la méthode.
Resumo:
L’antibiorésistance est un problème de santé publique majeur, causé principalement par l’usage abusif d’antibiotiques dans les élevages. Les probiotiques sont une alternative potentielle aux antibiotiques. Cependant, acheminer ces microorganismes vivants et fonctionnels jusqu’au côlon est un grand défi, à cause du pH et des sels biliaires à affronter lors du passage gastro-intestinal. L’objectif de ce travail était de développer une matrice prébiotique capable de maintenir la survie et l’activité des probiotiques pendant le transit gastro-intestinal et de permettre leur libération dans le côlon. Pour atteindre cet objectif, cinq types de matrices sphériques (A, AI5, AI10, AI15, AI20) à base d’inuline (0 %, 5 %, 10 %, 15 % et 20 %) et d’alginate (2 %) ont été préparés par la méthode d’extrusion/gélification ionotropique. Trois souches probiotiques ont été utilisées au cours du développement des billes : Pediococcus acidilactici UL5 (UL5), Lactobacillus reuteri (LR) et Lactobacillus salivarius (LS). Dans un premier temps, toutes les formulations ont été caractérisées d’un point de vue physicochimique et microbiologique. Ces analyses ont permis de révéler une distribution homogène de l’inuline et de l’alginate au sein des matrices et ont démontré que la viabilité et la capacité antimicrobienne des souches utilisées n’étaient pas affectées par l’encapsulation. À la lumière de ces résultats, trois formulations A, AI5 et AI20 ont été sélectionnées pour la suite de l’étude. Dans un deuxième temps, la mucoadhésion et le comportement des billes A, AI5 et AI20 ont été étudiés dans les parties supérieures du tractus gastro-intestinal. Ces études ont démontré que la présence de l’inuline améliore les propriétés mucoadhésives des billes. Elles ont également établi que seule la formulation AI5 résiste jusqu’à la fin de la digestion. Ce comportement est expliqué en partie par l’interaction alginate-inuline décelée par spectroscopie infrarouge à transformée de Fourier (FTIR). Cette interaction était stable pour les billes AI5 au pH 6,8 mais instable pour la formulation AI20. Enfin, le comportement et la dynamique bactérienne de la formulation AI5 dans les milieux coliques fermenté et non fermenté ont été étudiés. Cette étude a révélé que les billes AI5 se dégradent et libèrent la totalité des bactéries après environ 4 heures d’incubation dans le milieu fermenté. Cette dégradation est due aux enzymes très abondantes dans ce milieu. En conclusion, la formulation AI5 s’est avérée être un très bon véhicule pour protéger les bactéries dans les parties supérieures du tube digestif et favoriser leur libération dans le côlon. Elle pourrait donc, être utilisée pour une application en alimentation animale.
Resumo:
Dans le domaine des centres d’appels, l’affectation d’agents au service à la clientèle efficaces et satisfaits représente une activité cruciale pour toute direction dédiée aux ressources humaines de ces unités d’affaires. Or, pour parvenir à prendre de bonnes décisions d’embauche et de rejet, des instruments de mesure et d’évaluation des compétences sont souvent mis à contribution. À cet effet, les tests de jugement situationnel (TJS) sont de plus en plus utilisés pour la sélection du personnel. L’objet de cette thèse est donc de vérifier l’efficacité relative des différentes méthodes d’élaboration des grilles de correction des TJS. En effet, jusqu’à présent, trois méthodes ont été privilégiées par les concepteurs de tests (Weekley, Ployhart, & Holtz, 2006) : (1) l’approche rationnelle ou théorique (2) l’approche empirique et (3) le recours à des experts. La possibilité qu’une combinaison de ces différentes approches puisse conduire à de meilleurs résultats est également explorée. Pour y parvenir, le résultat total obtenu à un TJS a été mis en lien avec une évaluation du rendement global effectuée par un supérieur immédiat en y appliquant huit grilles de correction différentes. Au total, un échantillon de 312 employés œuvrant dans des emplois de téléopérateurs au sein d’une grande institution financière québécoise ont participé à cette recherche. Dans l’ensemble, les résultats indiquent qu’une approche empirique permet généralement d’obtenir de meilleures statistiques descriptives en termes de distribution et de dispersion des scores pour un processus de sélection. Cependant, des analyses corrélationnelles indiquent qu’une approche multiple ou méthode hybride, basée sur une intégration des informations fournies par différentes sources d’informations (empirique, théorique et basé sur les experts) pour l’élaboration d’une grille de correction d’un TJS, permet de mieux prédire le rendement des employés (r=0,247**) comparativement à l’utilisation de la théorie pour définir les attentes (r=0,162**), le recours à des experts de contenu œuvrant dans le domaine de pratique (r=0,164**) ou l’utilisation d’une approche empirique (r=0,154*). Mots clés : Test de jugement situationnel, grilles de correction, validité critériée, centre d’appels.