843 resultados para Comparaison interpersonnelle
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
Le présent mémoire expose les résultats d’une étude de la performance des chantiers ouverts dans un contexte de mines profondes ayant été effectuée dans le cadre du projet de recherche « Mines profondes : défis d’exploitation et impacts sur la récupération minéralurgique » réalisé par le département de génie des mines, de la métallurgie et des matériaux de l’Université Laval. Les données utilisées dans le cadre de cette étude sont en lien avec la planification et l’exploitation de plus de mille chantiers minés entre 860 et 2 450 m de profondeur à la mine souterraine LaRonde de Mines Agnico Eagle, la plus profonde actuellement de l’hémisphère ouest. On y présente une revue de la littérature qui fait la description des problématiques de dilution et de pertes opérationnelles de la réserve minérale liées à la performance des chantiers ouverts ainsi que de leurs conséquences sur les projets miniers. Une comparaison des performances planifiées et réalisées au site de LaRonde y est présentée, ainsi que les résultats d’analyses statistiques ayant permis de montrer que la variation du ratio des contraintes in situ avec la profondeur est un facteur d’influence significatif de la performance des chantiers. L’effet de ce facteur d’influence y est aussi illustré et validé à l’aide d’une série de modèles numériques. Le mémoire présente également une première approche visant à développer un modèle d’évaluation de la dilution dans les chantiers ouverts qui prend en compte la profondeur de minage. Finalement, afin d’améliorer la précision de l’estimation de la réserve minérale lors de l’évaluation de projets miniers, une méthodologie d’estimation intégrant le modèle d’évaluation proposé est présentée pour les projets dont les contextes géologique, géotechnique et opérationnel sont comparables à ceux du site de LaRonde.
Resumo:
Ce mémoire propose de retracer un parcours sur l’expérience du processus, mes essais en productions et en diffusion. Développé en trois parties, il décrit d’abord mes premières impressions perceptuelles des oeuvres, ensuite les différentes étapes qui auront ponctué ma recherche-création. Attentive à ce qui se passe en dehors des ateliers et des centres de diffusion en arts visuels, mes écrits sont teintés de mes expériences de diffusion et de création dans les lieux urbains et même, dans le dernier mois, dans le paysage naturel. J’explore mes méthodes de recherche-création instinctive et les différentes facettes entre les thèmes de la tension et de l’abandon. Je m’intéresse à la perception de ces mondes, à leurs cohabitations, à ce qu’ils produisent dans l’oeuvre finale et même, à l’expérience de mon propre corps. Je traiterai également du médium vidéo et de la valeur de l’image en comparaison aux autres médiums exploités, un ensemble d’oeuvres qui matérialisent une certaine temporalité de l’image en mouvement, où l’expérience à vivre est celle de l’instant suspendu ou une vision renouvelée du temps qui passe.
Resumo:
Spinal cord injury (SCI) is a devastating neurological disorder that affects thousands of people each year. Although in recent decades significant progress has been made in relation to understanding the molecular and cellular events underlying the nervous damage, spinal cord injury is still a highly disabling condition for which there is no curative therapy. People affected by spinal cord injuries manifested dysfunction or loss, temporary or permanent, of motor, sensory and / or autonomic functions depending on the spinal lesion damaged. Currently, the incidence rate of this type of injury is approximately 15-40 cases per million people worldwide. At the origin of these lesions are: road accidents, falls, interpersonal violence and the practice of sports. In this work we placed the hypothesis that HA is one of the component of the scar tissue formed after a compressive SCI, that it is likely synthetised by the perilesional glial cells and that it might support the permeation of the glial scar during the late phase of SCI. Nowadays, much focus is drawn on the recovery of CNS function, made impossible after SCI due to the high content of sulfated proteoglycans in the extracellular matrix. Counterbalancing the ratio between these proteoglycans and hyaluronic acid could be one of the experimental therapy to re-permeate the glial scar tissue formed after SCI, making possible axonal regrowth and functional recovery. Therefore, we established a model of spinal cord compression in mice and studied the glial scar tissue, particularly through the characterization of the expression of enzymes related to the metabolism of HA and the subsequent concentration thereof at different distances of the lesion epicenter. Our results show that the lesion induced in mice shows results similar to those produced in human lesions, in terms of histologic similarities and behavioral results. but these animals demonstrate an impressive spontaneous reorganization mechanism of the spinal cord tissue that occurs after injury and allows for partial recovery of the functions of the CNS. As regards the study of the glial scar, changes were recorded at the level of mRNA expression of enzymes metabolizing HA i.e., after injury there was a decreased expression of HA synthases 1-2 (HAS 1-2) and an increase of the expression HAS3 synthase mRNA, as well as the enzymes responsible for the HA catabolism, HYAL 1-2. But the amount of HA measured through the ELISA test was found unchanged after injury, it is not possible to explain this fact only with the change of expression of enzymes. At two weeks and in response to SCI, we found synthesized HA by reactive astrocytes and probably by others like microglial cells as it was advanced by the HA/GFAP+ and HA/IBA1+ cells co-location.
Resumo:
Cet essai se divisera en deux parties. D'une part, nous tenterons de situer la provocation parmi les différents appels publicitaires. Ensuite nous étudierons la provocation et ses différentes composantes (Vézina et Paul, 1994) à l'intérieur d'un modèle spécifique de persuasion. Dans un premier temps, la provocation sera donc comparée, de façon quantitative aux autres appels répertoriés ci-dessus. L'objectif de cette étape est de pouvoir saisir et établir une base de comparaison sur les différentes perceptions des consommateurs de la provocation par rapport aux autres appels et de plus, vérifier si les composantes suggérées par Vézina et Paul (1994) sont bel et bien présentes dans le concept de provocation. La première étape de cet essai a aussi pour but la sélection d'annonces spécifiques pour la bonne marche de la deuxième étape de l'essai. La deuxième étude, quant à elle, est le coeur du présent ouvrage. Elle mesurera l'usage de la provocation auprès des différentes composantes du modèle intégrateur qui sera proposé ultérieurement. Cette étape permettra de déterminer l'impact de la provocation et de ses composantes sur l'attitude envers l'annonce (variable médiatrice du modèle) et l'attitude envers la marque (dimension affective), de même que l'intention d'achat. Une section répertoriera, analysera et traitera des réponses cognitives suscitées par les annonces sélectionnées afin de mesurer la dimension cognitive du modèle présenté. L'essai tentera de répondre à des besoins autant théoriques que pragmatiques. Nous tenterons de faire la lumière sur l'utilisation de la provocation en publicité imprimée de même que ses implications pour les gestionnaires en publicité.
Resumo:
La culture sous abris avec des infrastructures de type grands tunnels est une nouvelle technologie permettant d’améliorer la production de framboises rouges sous des climats nordiques. L’objectif principal de ce projet de doctorat était d’étudier les performances de ces technologies (grands tunnels vs. abris parapluie de type Voen, en comparaison à la culture en plein champ) et leur effets sur le microclimat, la photosynthèse, la croissance des plantes et le rendement en fruits pour les deux types de framboisiers non-remontants et remontants (Rubus idaeus, L.). Puisque les pratiques culturales doivent être adaptées aux différents environnements de culture, la taille d’été (pour le cultivar non-remontant), l’optimisation de la densité des tiges (pour le cultivar remontant) et l’utilisation de bâches réfléchissantes (pour les deux types des framboisiers) ont été étudiées sous grands tunnels, abris Voen vs. en plein champ. Les plants cultivés sous grands tunnels produisent en moyenne 1,2 et 1,5 fois le rendement en fruits commercialisables que ceux cultivés sous abri Voen pour le cv. non-remontant ‘Jeanne d’Orléans’ et le cv. remontant ‘Polka’, respectivement. Comparativement aux framboisiers cultivés aux champs, le rendement en fruits des plants sous grands tunnels était plus du double pour le cv. ‘Jeanne d’Orléans’ et près du triple pour le cv. ‘Polka’. L’utilisation de bâches réfléchissantes a entrainé un gain significatif sur le rendement en fruits de 12% pour le cv. ‘Jeanne d’Orléans’ et de 17% pour le cv. ‘Polka’. La taille des premières ou deuxièmes pousses a significativement amélioré le rendement en fruits du cv. ‘Jeanne d’Orléans’ de 26% en moyenne par rapport aux framboisiers non taillés. Des augmentations significatives du rendement en fruits de 43% et 71% du cv. ‘Polka’ ont été mesurées avec l’accroissement de la densité à 4 et 6 tiges par pot respectivement, comparativement à deux tiges par pot. Au cours de la période de fructification du cv. ‘Jeanne d’Orléans’, les bâches réfléchissantes ont augmenté significativement la densité de flux photonique photosynthétique (DFPP) réfléchie à la canopée inférieure de 80% en plein champ et de 60% sous grands tunnels, comparativement à seulement 14% sous abri Voen. Durant la saison de fructification du cv. ‘Polka’, un effet positif de bâches sur la lumière réfléchie (jusqu’à 42%) a été mesuré seulement en plein champ. Dans tous les cas, les bâches réfléchissantes n’ont présenté aucun effet significatif sur la DFPP incidente foliaire totale et la photosynthèse. Pour le cv. ‘Jeanne d’Orléans’, la DFPP incidente sur la feuille a été atténuée d’environ 46% sous le deux types de revêtement par rapport au plein champ. Par conséquent, la photosynthèse a été réduite en moyenne de 43% sous grands tunnels et de 17% sous abris Voen. Des effets similaires ont été mesurés pour la DFPP incidente et la photosynthèse avec le cv. Polka. En dépit du taux de photosynthèse des feuilles individuelles systématiquement inférieur à ceux mesurés pour les plants cultivés aux champs, la photosynthèse de la plante entière sous grands tunnels était de 51% supérieure à celle observée au champ pour le cv. ‘Jeanne d’Orléans’, et 46% plus élevée pour le cv. ‘Polka’. Ces résultats s’expliquent par une plus grande (près du double) surface foliaire pour les plants cultivés sous tunnels, qui a compensé pour le plus faible taux de photosynthèse par unité de surface foliaire. Les températures supra-optimales des feuilles mesurées sous grands tunnels (6.6°C plus élevé en moyenne que dans le champ), ainsi que l’atténuation de la DFPP incidente (env. 43%) par les revêtements de tunnels ont contribué à réduire le taux de photosynthèse par unité de surface foliaire. La photosynthèse de la canopée entière était étroitement corrélée avec le rendement en fruits pour les deux types de framboisiers rouges cultivés sous grands tunnels ou en plein champ.
Resumo:
L'analyse de la situation financière de l'entreprise sert à la prise de décision pour les parties intéressées à l'intérieur de l'entreprise, soit le gestionnaire et parfois le propriétaire et les autres qui se trouvent à l'extérieur, tels l'investisseur, le ministère du revenu, le banquier et le consultant. Dépendamment de l'utilisateur, l'information disponible n'est pas la même. L'investisseur, le banquier et le ministère du revenu doivent analyser l'entreprise à partir des données comptables publiées. Mais, les états financiers cachent parfois certaines réalités, tel un exercice financier ne représentant pas la saisonnalité des activités. De même les stocks de fin d'exercice ne représentent pas nécessairement le niveau du stock moyen. Les échéances de paiement surviennent peut-être au début plutôt qu'uniformément au cours de l'exercice. La signature de contrats importants pourra avoir des répercussions qu'au cours de l'exercice suivant. L'information interne seule peut répondre à ces questions. De plus, le résultat net publié dans les états financiers renferme certaines lacunes dont l'analyste doit tenir compte : 1- L'amortissement et l'évaluation des comptes-clients comportent une bonne part de subjectivité; 2- L'existence de plusieurs méthodes d'évaluation des stocks amène des problèmes de comparabilité, surtout lorsque ces postes ont une relative importance; 3- La dépréciation monétaire non prise en compte dans les états financiers diminue la comparabilité d'un exercice à l'autre et n'assure pas la préservation du patrimoine. Ainsi, les dividendes peuvent être versés au-delà de ce qu'il serait prudent de verser pour assurer la capacité de fonctionnement; 4- En période de prospérité, l'entreprise tentera de minimiser son bénéfice comptable afin de diminuer sa charge fiscale alors qu'en période de déficit, elle tentera de maximiser son bénéfice comptable pour rassurer les propriétaires et les prêteurs; 5- L'inflation accentue les difficultés de comparaison. Il faudra donc tenir compte de l'inflation pour apprécier l'évolution réelle du résultat; 6- La comparaison avec plusieurs entreprises est quelque peu biaisée dû au choix des pratiques comptables exercées sur plusieurs postes. Les critères de comparaison devront donc être le moins possible dépendants de choix de pratiques comptables. Malgré l'existence de ces déformations comptables, les états financiers demeurent une source importante d'informations. Mais les forces et les faiblesses de l'entreprise s'en trouvent plus ou moins cachées. Comme le gestionnaire et le consultant ont accès aux données non publiées par l'entreprise, les résultats des activités et les données sur la qualité de la gestion interne peuvent donc être plus détaillés, et plus proches de la réalité. L'information publique, ne permet que de détecter les grandes lignes de la situation financière de l'entreprise. Les ouvrages en finance ne traitent que très peu de ces facteurs internes et du lien entre l'information interne et l'information externe. Le but de notre étude a été de créer un modèle de diagnostic de la situation financière, dans un premier temps, issu de la théorie et reposant sur les données externes et internes à l'entreprise. Dans un deuxième temps, nous avons construit un modèle plus complet qui tienne compte des interrelations des postes des états financiers et de l'interprétation faite par les praticiens, et dont la théorie ne fait pas état. L'intégration des connaissances des praticiens au modèle théorique initial et l'utilisation des données internes à l'entreprise, devraient permettre de porter un diagnostic plus éclairé de la situation financière de l'entreprise.
Resumo:
Le but de ce mémoire fut d’appliquer les théories développées dans le domaine de la localisation des jeux vidéo à un exemple concret afin de tenter d’offrir une voie pour rapprocher théories académiques et pratiques industrielles. Pour ceci, nous avons étudié la traduction anglais-français d’un dialecte fictif dans le jeu FINAL FANTASY XI Online. L’hypothèse de travail fut formulée à partir des théories de localisation de jeux vidéo concernant l’immersion du joueur dans l’expérience du jeu et des stratégies de traduction de dialectes décrites par Christian Paulus (2012) dans son mémoire. Dans notre hypothèse nous avons cherché à vérifier que la traduction ait bien cherché à conserver, voire embellir le dialecte. En construisant l’analyse du travail sur une étude quantitative des marqueurs du dialecte, nous avons quantifié puis comparé leurs occurrences dans les corpus anglais et français. Ainsi, nous avons obtenu les résultats suivants : - La traduction française comporte moins de marqueurs que l’original anglais ; - Les marqueurs du corpus français sont répartis plus uniformément sur l’ensemble corpus. D’un aspect quantitatif, la traduction française n’a donc pas conservé le dialecte, réfutant notre hypothèse de départ. Le deuxième résultat de l’analyse pourrait cependant soutenir les théories de la localisation des jeux vidéo, mais cette interprétation nécessiterait une étude focalisée sur la situation de réception et le récepteur afin d’être vérifiée. De plus, la comparaison de nos résultats avec ceux de Paulus semblerait confirmer son idée que ces stratégies de traduction de dialectes mériteraient d’être affinées.
Resumo:
Chez l’humain, les lymphocytes B mémoires IgG+ et IgA+ sont des cellules clés de l’immunité humorale. Ces cellules mémoires sont maintenues à long-terme dans notre organisme. Elles représentent une défense rapide et efficace contre toutes les infections que nous avons déjà vaincues pendant notre vie. Ces cellules mémoires qui rencontrent à nouveau leur antigène se différencient rapidement en plasmocytes à courte vie, et permettent la sécrétion massive d’immunoglobuline (Ig). La contrepartie mémoire de ces cellules sont les plasmocytes à longue vie qui sont présents dans les niches de la moelle osseuse et y sécrètent en permanence des anticorps protecteurs qui circulent dans le sang. Ces cellules sécrétrices peuvent avoir une durée de vie allant de dizaines d’années à la vie entière de l’individu. Les patients qui reçoivent des traitements de chimiothérapie ou de radiothérapie sont privés de ces cellules mémoires détruites par ces traitements au même titre que les cellules cancéreuses. Ces patients deviennent vulnérables aux infections et leur survie dépend de la régénération rapide de leur système hématopoïétique. Notre équipe a déjà mis au point une méthode pour préparer de grandes quantités des cellules mémoires capables de sécréter des IgG et des IgA. Les présents travaux visent à générer des plasmocytes fonctionnels et capables de survivre à long terme in vitro. La stratégie expérimentale visait à établir des conditions permettant de se rapprocher de l’environnement de la moelle osseuse. Dans un premier temps, nous avons étudié les paramètres permettant la différenciation des lymphocytes B mémoires en plasmocytes. Étant donné l’importance du potentiel redox dans l’environnement de la moelle osseuse, nous avons d’abord tenté d’en contrôler l’impact avec un antioxydant, le N-acétyle cystéine (NAC). Nos résultats ont démontré que le NAC avait un effet significatif et diminuait la phosphorylation de la protéine STAT3 en raison d’une inhibition des kinases JAK2 et JAK3. Étonnamment, cet antioxydant retardait la différenciation de nos lymphocytes B qui étaient stimulés avec une forte interaction CD40-CD154. Par la suite, la comparaison des interactions CD40-CD154 et CD27-CD70 a permis de conclure qu’il était essentiel de réduire à son minimum l’interaction CD40-CD154 et qu’il fallait ajouter les cytokines IL-6 et IL-10. Les cellules CD31+CD38+CD138+ générées présentaient un phénotype similaire à celui des plasmocytes de la moelle osseuse. Malheureusement la fréquence de ces cellules était faible et leur viabilité insuffisante. Afin d’augmenter la survie de ces cellules le dernier volet de nos travaux visait à se rapprocher des niches de la moelle osseuse. Notre but a été atteint en ajoutant des cellules mésenchymateuses issues de la moelle osseuse en présence de 8% de dioxygène (O2). Les cellules CD31+CD38+CD138+ générées ont une excellente viabilité et représentent plus de 50% des cellules totales en culture. De plus, le modèle de culture est maintenant établi dans un milieu exempt de sérum et de protéines animales. Dans l’ensemble, nos résultats permettent de proposer la production ex vivo de plasmocytes autologues avec une perspective thérapeutique pour réduire les risques d’infections des patients devenues immunodéficients, suite à un traitement de radiothérapie ou de chimiothérapie.
Resumo:
[...]L'objectif précis de la présente recherche est d'observer si une caractéristique du développement psychologique des individus - la différenciation psychologique - exerce une influence sur les préférences interpersonnelles que se manifestent entre eux des élèves dans le cadre de quelques-unes de leurs activités sociales sur les lieux de leur institution d'enseignement. Il s'agit plus particulièrement de vérifier si la différenciation psychologique constitue une caractéristique individuelle associée au statut sociométrique - établi selon un critère de popularité - d'élèves québécois francophones, de niveau secondaire IV, observés en situation de travail en équipe lors d'une classe de français et lors d'une classe de physique. Une autre situation qui est considérée dans la présente recherche concerne les relations sociales entre des élèves à la cafétéria, à l'heure du repas. Dans toutes ces situations d'interaction sociale, nous nous intéressons donc à étudier le rôle particulier d'une caractéristique individuelle susceptible d'influencer la désirabilité sociale de l’individu. L'idée de considérer la variable qu'est la différenciation psychologique comme étant particulièrement importante dans cette recherche découle de deux raisons principales. La première de ces raisons se rapporte au fait que la théorie qui est rattachée à cette variable, la théorie de la différenciation psychologique, a déjà suscité l'intérêt d'un grand nombre de recherches dans les domaines de l'étude de la personnalité et des comportements interpersonnels et qu'il existe aussi à ce sujet quelques travaux sur l'étude de l'attirance interpersonnelle dans des classes d'élèves. Pour cette raison, nous pouvons tenter ici de pousser plus loin la démarche entreprise par d'autres chercheurs. La seconde raison concerne le fait qu'il s'agit d'une variable psychologique dont la relation a déjà été étudiée en regard de quelques matières d'enseignement scolaire et aussi en regard de la mesure de l'intelligence. Des recherches effectuées dans le domaine scolaire révèlent par exemple que la mesure de la différenciation psychologique peut servir à estimer quel sera le rendement académique des élèves quant aux matières d'enseignement faisant appel à des habiletés d'analyse et de raisonnement mathématique. [...]
Resumo:
Dans les pays développés, la prévalence des démences est de 5% chez les plus de 65ans et doublerait pour chaque tranche d'âge de 10 ans. Avec le vieillissement de la population, le nombre de personnes atteintes de démence augmente chaque année, ce qui pose le problème de trouver rapidement des thérapies et mesures de prévention efficaces. Il est connu que l'hypertension artérielle (HTA) est un facteur de risque pour certaines démences. De plus, de récentes études démontrent que la pression artérielle centrale serait un marqueur hémodynamique plus représentatif des lésions causées au cerveau, dues à une HTA, que la pression périphérique usuellement mesurée. Il serait donc intéressant d'évaluer si la démence est associée à une augmentation de la pression artérielle centrale, en comparaison avec des patients hypertendus non déments. But de l'étude : Cette étude a pour but de quantifier l'apport de la mesure de la pression artérielle centrale ambulatoire dans la caractérisation des patients avec une démence de type Alzheimer. L'objectif principal est de déterminer la taille de la différence de pression artérielle centrale et son écart-‐type entre les patients hypertendus avec ou sans démence de type Alzheimer afin de pouvoir calculer le nombre de patients nécessaire pour montrer une différence significative. Dans cette étude, nous allons tester l'hypothèse que la pression artérielle centrale (moyenne, systolique et diastolique) est plus élevée chez les patients atteints de troubles cognitifs et/ou qu'ils présentent des perturbations du rythme circadien plus marquées, notamment pour les valeurs durant le sommeil, (non-‐dipping, reverse dipping, extreme dipping).
Resumo:
L’objectif général des travaux présentes dans cette thèse de doctorat était d’établir la relation entre l’alimentation et la composition du lait des vaches laitières, en mettant l’emphase sur les teneurs en matières grasses (TMG), sur l’urée du lait et sur l’efficience d’utilisation de l’azote. Pour la TMG, c’est principalement la relation entre cette teneur et la différence alimentaire cations-anions (DACA) qui a été investiguée. Une base de données de 2 142 troupeaux québécois a été utilisée et la relation entre la composition de la ration, incluant la DACA, et la TMG du lait a été déterminée à l’aide de régressions multiples. Il a été possible de prédire entre 32 et 66 % de la variation de la TMG du lait en fonction du stade de lactation. Malgré plusieurs interactions trouvées, une augmentation de la DACA, une supplémentation avec de l’acide palmitique et une distribution des aliments en ration totale mélangée ont eu une relation positive avec la TMG du lait, tandis qu’une augmentation de la proportion de concentrés dans la ration a eu un effet négatif. Les modèles développés ont montré l’importance de la gestion de l’alimentation sur la TMG du lait. En plus, ils ont démontré l’intérêt de considérer la DACA dans la formulation de rations chez la vache laitière. Dans une deuxième étude, la même base des données a été utilisée pour identifier les facteurs nutritionnels qui peuvent faire varier la teneur en urée du lait. Contrairement à ce qui est mentionné dans la littérature, tant des corrélations positives et que négatives entre les teneurs en urée du lait et en protéines des rations à l’intérieur des troupeaux sur une période de 36 mois ont été obtenues. Pour mieux comprendre ces relations, les résultats de performances et d’alimentation de 100 troupeaux avec des corrélations positives (r > 0,69) et de 100 troupeaux avec des corrélations négatives (r < -0,44) entre la teneur en urée du lait et en protéine brute de la ration ont été comparés. Les résultats n’ont pas montré de différences entre les deux groupes ni pour la composition de la ration, ni pour l’urée du lait. Ces résultats ne permettent pas d’identifier le meilleur contexte pour l’utilisation de la teneur en urée du lait comme un outil de gestion de l’alimentation. Ces observations soulèvent des questions sur la validité de l’utilisation des statistiques d’alimentation provenant de la base de données utilisée pour des évaluations nutritionnelles plus spécifiques. Considérant les résultats du projet précédent, le dernier projet visait à mieux comprendre les caractéristiques des fermes avec différentes efficiences d’utilisation de l’azote en utilisant des données plus fiables. Ainsi, 100 fermes laitières au Québec ont été visitées pour recueillir les données de production, de consommation d’aliments et de gestion de leur troupeau. Ces fermes ont été divisées en quatre groupes par une analyse en grappes selon leur efficience d’utilisation de l’azote. La comparaison entre les groupes a montré que les fermes dans les groupes avec une plus haute efficience d’utilisation d’azote ont une production laitière moyenne par vache plus élevée. Pour les stratégies d’alimentation, les fermes plus efficientes donnent plus d’énergie, mais moins de protéines brutes que les fermes des groupes moins efficients. Les résultats ont également montré l’importance de la prise alimentaire des vaches sur l’efficience d’utilisation de l’azote puisque les fermes des groupes avec la plus grande efficience étaient également celles avec la plus faible prise alimentaire. Aussi, les résultats n’ont pas permis d’établir clairement la relation entre la teneur en urée du lait et l’efficience de l’utilisation de l’azote. En effet, des valeurs différentes pour l’urée du lait étaient obtenues entre le groupe plus efficient et le moins efficient, mais la faible ampleur de variation de l’efficience d’utilisation de l’azote des groupes intermédiaires n’a pas permis d’observer de différences pour l’urée du lait. Finalement, outre une réduction des risques de pollution, les fermes des groupes plus efficaces pour l’utilisation de l’azote étaient également celles avec la marge sur les coûts d’alimentation par les vaches plus élevées. Par conséquent, il y a aussi un intérêt économique à améliorer l’efficience de l’utilisation de l’azote sur les fermes.
Resumo:
L'objectif de cette étude est d'évaluer les liens entre les variables familiales et les élèves fortement à risque de décrochage scolaire. Deux types de variables familiales sont abordés dans ce mémoire, il s'agit des variables reliées aux pratiques éducatives et des variables environnementales. L'échantillon est composé de 42 élèves présentant de graves difficultés d'apprentissage. Ces élèves proviennent du programme I.S.P.M.T. (Insertion sociale et professionnelle au marché du travail) de l'école secondaire St-Jérôme de la région des Laurentides. Les sujets ont été évalués avec le Questionnaire de renseignements généraux et le Family Environment Scale (Moos & Moos, 1981). Durant l'année scolaire, 25 de ces sujets ont décroché et 17 ont persévéré. Ainsi, une comparaison entre les élèves persévérants et les décrocheurs fut effectuée. Tout d'abord, le test du khi-deux (Pearson) fut utilisé afin d'évaluer le lien entre certaines variables (niveau socio-économique de la famille et élèves persévérants et décrocheurs). Auprès de l'échantillon, les résultats indiquent qu'il n'y a pas de différence significative au niveau socio-économique de la famille dans le fait de poursuivre ou non ses études. Par la suite, le test non-paramétrique de Mann-Whitney nous a permis de vérifier si nos deux groupes (élèves persévérants et décrocheurs) différaient l'un de l'autre sur les trois dimensions du Family Environment Scale (Moos & Moos, 1981). Certains résultats obtenus aux différentes sous-échelles de ce questionnaire sont significatifs. De façon générale, les résultats indiquent que les élèves persévérants ont un degré d'engagement, d'aide et de support entre les membres de leur famille supérieur à celui des familles des décrocheurs. Pour l'ensemble du questionnaire, les rangs moyens obtenus par les élèves persévérants sont supérieurs à ceux des décrocheurs. En comparaison au milieu familial des élèves décrocheurs, les résultats suggèrent que le milieu familial des élèves persévérants est caractérisé par de meilleures relations parents-enfant, entraînant ainsi un climat de vie familiale recherché.