16 resultados para modèle
em Université Laval Mémoires et thèses électroniques
Resumo:
Bien qu’ils soient exposés tous deux aux rayons ultraviolets (UVR) solaires, cette exposition génotoxique n’entraîne pas les mêmes conséquences dans l’oeil et la peau. Le rôle des rayons UV dans l’induction et la progression des cancers cutanés est bien démontré. Ces rayons génotoxiques sont absorbés par l’ADN. Ils y induisent ainsi des changements conformationnels pouvant mener à la formation de différents dommages. On retrouve de façon prédominante la liaison de pyrimidines adjacentes en dimères cyclobutyliques de pyrimidines (CPD). Ceux-ci causent les mutations signatures responsables des cancers de la peau induits par les UVR. Cependant, aucune évidence ne démontre l’existence de cancer induit par les UVR dans la cornée. Nous avons donc tenté de découvrir les mécanismes permettant à la cornée d’éviter la transformation tumorale induite par les UVR. L’irradiation d’yeux de lapins aux rayons UVB a permis de prouver la capacité de ces rayons à induire la formation de CPD, et ce, de la cornée jusqu’au cristallin. Par la suite, l’irradiation d’yeux humains aux trois types de rayons UV (UVA, B et C) a permis d’y établir leur patron d’induction de CPD. Nous avons ainsi démontré que l’épithélium cornéen est particulièrement sensible à l’induction de CPD, tous types de rayons UV confondus. Enfin, la comparaison de la quantité de dommages présents dans des échantillons de peaux et de cornées irradiées à la même dose d’UVB a permis de démontrer que l’épithélium cornéen est 3.4 fois plus sensible à l’induction de CPD que l’épiderme. Nous avons par la suite étudié les mécanismes de réponse à ce stress. L’analyse de la viabilité cellulaire à la suite d’irradiations à différentes doses d’UVB a révélé que les cellules de la cornée et de la peau ont la même sensibilité à la mort cellulaire induite par les UVR. Nous avons alors analysé la vitesse de réparation des dommages induits par les UVR. Nos résultats démontrent que les CPD sont réparés 4 fois plus rapidement dans les cellules de la cornée que de la peau. L’analyse des protéines de reconnaissance des dommages a révélé que les cellules de la cornée possèdent plus de protéines DDB2 que les cellules de la peau, et ce, surtout liées à la chromatine. Nous avons alors tenté d’identifier la cause de cette accumulation. Nos analyses révèlent que la cornée possède une moins grande quantité d’ARNm DDB2, mais que la demi-vie de la protéine y est plus longue. Enfin, nos résultats suggèrent que l’accumulation de DDB2 dans les cellules de la cornée est entre autres due à une demi-vie plus longue de la protéine. Cette forte présence de DDB2 dans les cellules de la cornée permettrait un meilleur balayage de l’ADN, faciliterait de ce fait la détection de CPD ainsi que leur réparation et contribuerait donc à la capacité de la cornée à éviter la transformation tumorale induite par les UVR.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
Les entreprises qui se servent des technologies de l’information et de la communication (TIC) pour innover mesurent des impacts très inégaux sur leurs performances. Cela dépend principalement de l’intensité, l’ampleur et la cohérence de l’innovation systémique auxquelles elles procèdent. En l’état de la connaissance, la littérature identifie le besoin de mieux comprendre cette notion d’alignement systémique. Cette thèse propose d’aborder cette question à l’aide de la notion d’innovation du modèle d’affaires. Une revue systématique de la littérature a été réalisée. D’un point de vue conceptuel, elle contribue à mieux définir le concept de modèle d’affaires, et a permis de réaliser une typologie des différents cadres de modélisation d’affaires. Le cadre conceptuel qui en est issu aborde le sujet de l’innovation du modèle d’affaires à trois niveaux : (1) stratégique à travers la proposition d’une matrice de positionnement de l’innovation de modèle d’affaires et l’identification de trajectoires d’innovation ; (2) configuration du modèle d’affaires à l’aide du cadre de modélisation tétraédrique de Caisse et Montreuil ; et (3) opérationnel-tactique par l’analyse des facteurs clés de succès et des chaines structurantes. Du fait du caractère émergeant de la littérature sur le sujet, la méthodologie choisie est une étude de cas comparés. Trois études de cas d’entreprises québécoises ont été réalisées. Elles oeuvrent dans des secteurs variés, et ont procédé à une innovation significative de leur modèle d’affaires en s’appuyant sur des TIC,. La recherche conclut à la pertinence de l’utilisation du concept de modèle d’affaires en ce qui concerne l’analyse de l’alignement systémique dans un contexte d’innovation appuyée sur les TIC. Neuf propositions de recherche sont énoncées et ouvrent la voie à de futures recherches
Resumo:
Cette recherche est motivée par un cas d’étude ou on doit déterminer le nombre de pièces à tenir en stock à chaque base (noeud du réseau) pour répondre à la demande au niveau de chaque noeud. Si le niveau du stock par mois est suffisant, la demande est satisfaite directement par son stock local, sinon on fait appel au transfert latéral. D’ailleurs, nos expériences numériques indiquent que l’inclusion des transbordements latéraux dans des décisions d’inventaire est avantageuse. Cet effet est plus grand pour des taux de demandes et des coûts latéraux, élevés. Les résultats d’une étude de cas théorique basée sur les travaux de (Tagaras 1989) confirment nos résultats.
Resumo:
OBJECTIFS: La libération de dopamine par les afférences à sérotonine (5-HT) du striatum constitue un déterminant pré-synaptique important des dyskinésies induites par la L-Dopa (DILs), un effet délétère du traitement pharmacologique de la maladie de Parkinson. En effet, les axones 5-HT seraient en mesure de libérer de façon non-physiologique de la dopamine lorsque la L-Dopa est administrée au patient, contribuant ainsi à l’expression des DILs. Certaines afférences striatales 5-HT contiennent un transporteur vésiculaire du glutamate (VGluT3) et nous croyons que sa présence puisse avoir un effet synergique sur la libération de dopamine. L’objectif général de ce mémoire est donc d’évaluer la quantité de VGluT3 présent au sein des axones 5-HT et de mesurer son implication dans l’expression des DILs. MÉTHODES : Dix-huit souris C57/Bl6 ont été séparées en trois groupes expérimentaux. Douze souris ont reçu une injection intracérébrale de 6- hydroxydopamine (6-OHDA) dans le faisceau prosencéphalique médian afin de léser les afférences dopaminergiques du striatum. Six souris lésées ont reçu des injections systémiques de L-Dopa (12 jours, 1 fois/jour). Six autres souris ont reçu une injection intracérébrale du véhicule afin de servir de contrôle. La sévérité des mouvements involontaires anormaux induits par la L-Dopa (équivalent des dyskinésies) a été quantifiée selon une échelle reconnue. Un double marquage en immunofluorescence pour le transporteur membranaire de la 5-HT (SERT) et le VGluT3 a permis d’évaluer la densité des varicosités SERT+ et SERT+/VGluT3+ dans le striatum dorsal et de comparer ces données entre les trois groupes expérimentaux. RÉSULTATS: Chez les trois groupes de souris, un faible pourcentage des varicosités axonales 5-HT sont également VGluT3+. Ces varicosités doublement marquées sont souvent retrouvées sur une même branche axonale. Aucune différence significative n’a été observée entre les trois groupes expérimentaux en ce qui a trait à la proportion de varicosités SERT+ qui contiennent le VGluT3+. CONCLUSION: Nos données expérimentales ne nous permettent pas de conclure que la densité des varicosités axonales SERT+ ou SERT+/VGluT3+ au sein du striatum dorsal varie en fonction de la sévérité des mouvements involontaires anormaux induits par l’administration de L-Dopa.
Resumo:
L’isomérisation alcaline du lactose en lactulose a été effectuée électro-chimiquement à l’aide d’un réacteur d’électro-activation en combinaison avec des résines échangeuses d’anions de polystyrène de trois types; à savoir Lewatit VP-OC-1065 faible-acide, Lewatit MP-64 moyenne-acide et Lewatit Monoplus M500 forte-acide. Les paramètres opératoires qui ont fait l’objet de cette étude ont été étudiés sur trois blocs expérimentaux pour optimiser le système. Dans le Premier bloc, les paramètres étudiés sont : (1) ratio lactose-5%(p/v) : résine échangeuse d’anions (1:0.5, 1:1 et 1:2), (2) intensité du champ électrique : 50 mA, 100 mA et 200 mA et (3) type de résines : faible, moyenne et forte. Dans le Deuxième bloc, les paramètres mis à l’étude comprenaient : (1) l’intensité du champ électrique : 300 mA, 450 mA et 550 mA, (2) le débit de la solution traitée : 25 ml / min, 50 ml/ min et 100 ml/min et (3) la surface active de la membrane adjacente au compartiment cathodique : 0.78 cm2, 7.06 cm2 et 18.1 cm2. Le Troisième bloc expérimental a été effectué sur la base de la distance entre la membrane et l’électrode : 3.1 cm, 5.6 cm et 9 cm. Le même modèle expérimental a était également réalisé avec du perméat du lactosérum d’une concentration de 7% (p/v). Les résultats obtenus ont révélé que le meilleur rendement de l’isomérisation du lactose en lactulose était obtenu après 30 minutes d’électroactivation en utilisant une solution modèle de lactose-5% avec une valeur d’environ 20.1%. Les conditions opératoires qui ont permis d’avoir ce taux de conversion sont une intensité du courant de 550 mA, un débit de la solution de 25 ml/min, une surface active de la membrane de 7.06 cm2 et une distance de 9 cm entre la cathode et la membrane qui lui y est adjacente. En utilisant le perméat de lactosérum-7%, un taux de conversion de lactose en lactulose de 8.34% a était obtenu avec une intensité du courant de 200 mA, un débit de 120 ml/min, une surface active de de 18.1cm2 et une distance de 9 cm entre la membrane et l’électrode dans le compartiment cathodique. Les analyses de variance ont indiqué un effet catalytique significatif du type de la résine. En effet, la résine-forte a permis d’avoir les plus hauts rendements de la réaction d’isomérisation par électro-activation. La résistance électrique globale du système d’électroactivation dépendait de la valeur de l’intensité du courant. Le produit final était d’une grande pureté, car il ne présentait que quelques traces de galactose (< 4%).
Resumo:
Dans ce travail, je propose que l’harmonie vocalique turque n’est plus un phénomène phonologique synchroniquement productif en cette langue. Ce qui est jugé harmonique n’est en fait que les traces d’un système harmonique ancien, traces qui se sont morphologisées. La démonstration est faite 1) en critiquant la littérature existante et en montrant les paradoxes auxquels elle mène et 2) en regardant du côté des travaux sur l’acquisition du langage, la perception du langage et le transfert linguistique. Il est montré que la seule raison de postuler l’harmonie vocalique turque tient à nos présupposés sur ce qu’est la morphologie d’une langue. Certains modèles phonologiques ne prenant pas en compte ces présupposés sont ensuite étudiés. Une formalisation utilisant le modèle morphologique Whole Word Morphology est finalement proposée.
Resumo:
Au cours des dernières décennies, la recherche scientifique, toutes disciplines confondues, s’est particulièrement intéressée aux phénomènes et questionnements identitaires, notamment en ce qui concerne les groupes et les mouvements minoritaires ou marginaux, mais également en ce qui concerne la question des identités nationales dont se délectent à leur tour politiciens et médias. Véritable reflet d’un des enjeux majeurs de nos sociétés contemporaines, cet intérêt des chercheurs pour les phénomènes identitaires a particulièrement porté sur l’étude des processus de construction et d’affirmation des identités individuelles et collectives, c’est-à-dire sur les modes et les modalités à partir desquels les identités se construisent, se structurent et sont affirmées dans un rapport comparatif, compétitif et dialogique entre le Soi et l’Autre. Si notre compréhension des phénomènes identitaires s’est considérablement précisée et nuancée depuis la publication dans les années 1950, voire antérieurement, des études fondamentales et fondatrices, il n’en demeure pas moins que le concept d’identité, peu importe les multiples terminologies qu’il peut prendre selon les disciplines, pose actuellement de nombreux problèmes et s’avère abondamment galvaudé par certaines recherches récentes qui en font usage sans nécessairement le définir, voire pire, le maîtriser, comme un champ d’études à la mode qu’il convient d’investir afin d’alimenter un lectorat avide de ces questions et problèmes identitaires. Il est vrai que les travaux scientifiques sur les identités paraissent à un rythme soutenu, voire insoutenable tant cette production est abondante et diversifiée. Tour à tour, les identités ethniques, nationales, provinciales, régionales, politiques, culturelles, religieuses, de genre, des groupes ou mouvements minoritaires et marginaux, pour ne nommer que certains des principaux champs d’investigation, ont été interrogées. Loin de se limiter aux sociétés, aux individus et aux collectivités modernes, les identités du passé, toutes périodes confondues, ont également été revisitées à la lumière des outils d’interprétation développés, entre autres, par la sociologie, par l’anthropologie culturelle et par la psychologie sociale. Bien évidemment, les spécialistes de l’Antiquité n’ont pas échappé à cette tendance, partant à leur tour à la conquête de l’identité (ou des identités) grecque(s), romaine(s), barbare(s), judéenne(s) et chrétienne(s). Leur intérêt s’est également porté sur les identités propres aux diverses catégories ou collectivités sociales, politiques, juridiques, religieuses et professionnelles. Toutefois, aborder la question des identités dans l’Antiquité oblige à délaisser les définitions et compréhensions modernes au profit d’un tout autre mode raisonnement identitaire et d’appartenance propre aux sociétés et collectivités anciennes en prenant en considération les dimensions « – emic » et « – etic » que requiert l’utilisation de cette notion afin d’en avoir recours comme une catégorie d’analyse adéquate pour cette période particulière, une approche double et complémentaire trop souvent négligée par une majorité de recherches dont les résultats aboutissent inévitablement à une compréhension anachronique et « distorsionnée » des réalités anciennes, ce qui est d’autant plus le cas en histoire des religions et des communautés socioreligieuses de l’Antiquité en raison de nombreux présupposés idéologiques et théologiques qui dominent encore tout un pan de l’historiographie actuelle. Bien que le concept même d’identité n’existe pas dans l’Antiquité, le terme « identitas » renvoyant à une tout autre réalité, cela ne signifie pas pour autant que les Anciens n’avaient aucune conscience de leur(s) identité(s) et qu’il est impossible pour nous modernes d’étudier les phénomènes et les discours identitaires antiques. Toutefois, cela impose d’aborder ces phénomènes avec une très grande prudence et beaucoup de nuances en évitant les généralisations hâtives et en circonscrivant bien les contextes d’énonciation dans lesquels ces identités se sont construites et ont été affirmées, car, déterminées par les appartenances, la définition de ces identités s’est constamment élaborée et réélaborée sur un rapport Soi / Autre, inclusion / exclusion et a reposé sur des stratégies discursives qui ont varié selon les époques, les lieux, les auteurs et les contextes d’énonciation. L’enjeu principal est alors de comprendre les stratégies et les mécanismes mis en œuvre par les auteurs anciens dans les processus discursifs de construction identitaire de leur groupe d’appartenance. Produit d’une rhétorique, l’étude des identités anciennes oblige donc de distinguer, ce qui est certes complexe, discours et réalités sociales, du moins cela oblige, encore une fois, à une extrême prudence et beaucoup de nuances afin de ne pas confondre discours et réalités. Si les discours ont effectivement pour effet d’ériger des frontières identitaires fixes et imperméables entre les différents groupes et collectivités, l’étude de la réalité vécue par les acteurs sociaux montre que ces frontières étaient plutôt fluides et perméables. Pour étudier la question des identités dans l’Antiquité, plusieurs postes d’observation peuvent êtres sollicités en s’intéressant, notamment, à la formation des identités, à l’identité en auto-définition, à l’identité dans le miroir de l’Autre, à l’impact des interactions entre le Soi et l’Autre sur les définitions identitaires, aux frontières identitaires et à leurs transgresseurs, aux marqueurs identitaires, etc. Ces différentes approches, notamment lorsqu’elles sont combinées les unes aux autres, contribuent à mettre en évidence la complexité des processus de construction des identités dans l’Antiquité dont on reconnaît désormais le caractère fluide, dynamique et discursif, malgré les idéologies de stabilité sur lesquelles elles se sont élaborées et polémiquées. Loin de susciter de vains débats, les études sur les identités dans l’Antiquité permettent d’aborder sous un angle novateur certains acquis de la recherche et de leur apporter de riches nuances. Cependant, interpréter les phénomènes identitaires anciens à partir de paradigmes, de terminologies et de catégories erronés ou anachroniques a également pour conséquence indéniable de parvenir à une relecture « distorsionnée », si ce n’est orientée, du passé, en lui imposant des catégories de définition et d’auto-définition identitaires qui n’existaient pas dans l’Antiquité. C’est pourquoi il importe également, lorsqu’on tente d’aborder ces phénomènes identitaires, de réfléchir sur les paradigmes, les terminologies et les catégories qui sont invoqués par en parler et ne pas hésiter à les remettre en question en refusant d’adhérer, de manière consciente ou inconsciente, à un quelconque modèle préétabli. S’inscrivant dans ce courant réflexif majeur de l’historiographique actuelle sur l’étude des phénomènes de construction identitaire dans l’Antiquité, notre recherche s’intéresse plus particulièrement aux processus de construction de discours d’appartenance dans la littérature judéenne et chrétienne aux Ier et IIe siècles. Sans avoir cherché à circonscrire une définition unique et unilatérale des identités judéennes et chrétiennes de cette période – définition qui s’avère, selon nous, plus utopique que réaliste en raison de la pluralité des mouvements qui composent le « judaïsme » et le « christianisme » anciens et des auteurs qui ont tenté, par leurs discours, de définir et présenter ces identités – ou tenter d’établir une liste de critères à respecter pour délimiter ce qu’est l’identité judéenne ou chrétienne – et, par conséquent, ceux qui peuvent ou non se réclamer d’être Judéens ou chrétiens –, la perspective que nous adoptons dans cette recherche est plutôt de réfléchir à la manière dont il convient d’aborder les identités anciennes et les processus de construction identitaire dans l’Antiquité. Notre réflexion se veut donc d’abord et avant tout une réflexion méthodologique, épistémologique, terminologique et historiographique des questions et phénomènes identitaires dans l’Antiquité, notamment en ce qui concerne les identités judéennes et chrétiennes des Ier et IIe siècles qui sont abordées à partir de divers postes d’observation et dans une perspective socio-historique qui adopte une démarche « – emic » et « – etic ». Notre recherche est divisée en trois parties. La première sera consacrée aux discussions d’ordre « – etic », c’est-à-dire aux réflexions et aux remarques méthodologiques, épistémologiques, terminologiques et historiographies sur l’approche des phénomènes identitaires et de l’identité chrétienne dans l’Antiquité. Le chapitre I présentera des remarques historiographiques sur les travaux récents en histoire du « christianisme » ancien. Dans le chapitre II, nous discuterons des concepts modernes d’« identité », de « race » et d’« ethnie ». Le chapitre III présentera quelques réflexions épistémologiques et méthodologiques sur l’application des théories et concepts modernes aux réalités antiques dans l’approche des phénomènes identitaires. Finalement, le chapitre IV reviendra sur les différents paradigmes interprétatifs qui ont été utilisés dans le débat moderne sur la question du Parting of the Ways. La deuxième partie sera consacrée à la présentation des cadres contextuels du « judaïsme » et du « christianisme » anciens. Le chapitre V dressera un portrait général de la pluralité qui caractérise le « judaïsme » ancien à la période romaine (Ier – IIe siècles) et des principaux marqueurs identitaires des communautés judéennes de cette époque. Dans le chapitre VI, il sera question de l’origine et de l’expansion du « judaïsme chrétien » dans l’Empire romain (Ier – IIe siècles) de même que de la pluralité des courants chrétiens. La troisième partie abordera la dimension « – emic » de notre recherche en s’intéressant aux processus discursifs de construction de l’identité chrétienne à partir de différents postes d’observation. Le chapitre VII analysera la présentation que l’auteur des Actes des apôtres fait des conditions d’entrée et des premières règles de vie dans la communauté chrétienne. Le chapitre VIII s’intéressera aux enjeux liés à la perception et à la représentation du Soi et de l’Autre en tentant de comprendre comment le mouvement chrétien a tenté de s’auto-définir et comment il a été défini par l’Altérité. Finalement, le chapitre IX analysera la manière dont les auteurs chrétiens se sont approprié le terme « γένος » et comment ils l’ont redéfini sur la base de critères cultuels ou religieux afin de présenter l’originalité distinctive du mouvement chrétien.
Resumo:
En alimentation animale, l’utilisation adéquate des aliments nécessite une connaissance précise des valeurs nutritionnelles de leurs composantes, dont celle en acides aminés. Cependant, ces valeurs nutritionnelles dépendent de la teneur en acides aminés essentiels (AAE) totaux et de la digestibilité iléale standardisée (DIS) de ces AAE. Cette dernière varie en fonction de plusieurs facteurs, dont l’origine botanique des graines, les conditions de culture des récoltes, le stockage des aliments, les traitements physico-chimiques appliqués aux grains, les facteurs antinutritionnels (FANs) et les techniques expérimentales utilisées pour le dosage et l’estimation de la digestibilité des AAE. Une approche par méta-analyse a permis d’établir des modèles de prédiction de la valeur nutritionnelle en AAE des ingrédients à partir de leur composition chimique en considérant la protéine brute (PB), les AAE totaux, la teneur en fibre (Acid Detergent Fiber (ADF), Neutral Detergent Fiber (NDF) et Fibre Brute (FB)) et les FANs comme les inhibiteurs de la trypsine. En se référant à l’analyse graphique et statistique, les données ont été réparties en 4 groupes : 1) les tourteaux (tourteau de soja, colza/canola et coton); 2) les légumineuses (féveroles, lupins, pois et soja); 3) les céréales (blé, orge, avoine, sorgho et maïs); 4) les drêches de distilleries (blé et maïs). Ainsi, un modèle général ajusté en fonction du type d’ingrédients a été généré et les facteurs de variation de la digestibilité en AAE ont été identifiés. Pour les tourteaux, la DIS des AAE est réduite par un accroissement de la teneur en NDF, tandis que la DIS des AAE de la féverole, pois et lupin est principalement influencée par la teneur en PB et en FANs. Concernant les graines de soja la DIS des AAE est réduite par une hausse de la teneur en fibre (FB et ADF). Enfin pour les céréales et les sous- produit de céréales telles que les drêches, la PB et les fibres (ADF ou NDF) étaient les meilleurs nutriments pour prédire la DIS des AAE. Ces résultats démontrent que la DIS des AAE peut être prédite avec précision à partir de la composition chimique pour la plupart des ingrédients.
Resumo:
La construction dans l’Arctique nécessite une connaissance précise des propriétés thermiques et géotechniques du pergélisol. La connaissance de ces propriétés est également nécessaire pour le paramétrage des modèles de transfert de chaleur. Des études antérieures ont démontré le grand potentiel de l’utilisation de la tomodensitométrie pour les mesures du volume des composantes du pergélisol et la visualisation de la cryostructure. Une nouvelle approche est proposée pour mesurer la conductivité thermique du pergélisol. Les objectifs généraux de ce projet sont (1) d’élaborer une nouvelle méthode de caractérisation du pergélisol à l’aide de la tomodensitométrie et de modèle éprouvés et (2) de comparer et mettre au point une méthode novatrice pour mesurer la conductivité thermique et des paramètres géotechniques. Les résultats démontrent que les tests effectués à l’aide de la tomodensitométrie donnent des résultats d’une valeur scientifique comparable aux autres méthodes existantes de mesure de déjà existantes de conductivité thermique du pergélisol.
Resumo:
Loin de la réduction pressentie du temps de travail et de l’émergence d’une société des loisirs, est plutôt observé, depuis une trentaine d’années, un accroissement du temps consacré au travail pour les travailleurs les plus qualifiés, au Québec comme dans la plupart des sociétés occidentales (Burke et Cooper, 2008; Lapointe, 2005; Lee, 2007). Dans un contexte où les « arrangements temporels » (Thoemmes, 2000) tendent à s’individualiser de façon à mieux prendre en compte les réalités et les besoins des salariés et salariées tout comme ceux des organisations, cette thèse interroge le caractère « volontaire » des conduites d’hypertravail observées chez les travailleurs et les travailleuses des secteurs des services informatiques et du multimédia. Elle s’attarde plus particulièrement aux processus psychosociaux qui sous-tendent la construction de ces conduites. Inscrite au sein d’une approche psychosociale et systémique, notre recherche articule une théorie qui met en résonance les fonctionnements individuel et organisationnel, soutenue par le modèle du Système psychique organisationnel (Aubert et de Gaulejac, 1991), et une théorie de la socialisation plurielle et active, soutenue par le modèle du Système des activités (Baubion-Broye et Hajjar, 1998; Curie, 2000). Opérationnalisée selon une grille articulée autour de cinq niveaux d’analyse (intra-individuel, interpersonnel, positionnel, idéologique et de la tâche et de l’organisation du travail), nous avons mené 34 entretiens biographiques (26 hommes et 8 femmes) auprès de salariés et salariées des secteurs des services informatiques et du multimédia. Les résultats mettent en évidence trois types de processus menant à l’adoption de conduites d’hypertravail ; un cas-type qui illustre un processus de renforcement d’une identité professionnelle de « grand travailleur » ; un cas-type qui rend compte d’un processus de suraffiliation organisationnelle et d’assujettissement de la vie hors-travail; et un cas-type qui expose le maintien d’une conduite d’hypertravail défensive, dans un contexte de mise à l’épreuve organisationnelle. Au final, les résonances particulières observées entre ces niveaux et facteurs nous amènent à souligner l’intérêt de mieux comprendre l’hypertravail en prenant en compte les significations que les individus donnent à leurs conduites, à partir d’un regard diachronique et synchronique. Nous discutons également du caractère dynamique et évolutif de la relation individu-collectif-organisation et du rôle différencié des organisations et des collectifs de travail dans la construction des conduites d’hypertravail. Nous relevons enfin certaines implications des nouvelles pratiques et normes de temps de travail observées dans ces organisations, favorables au développement et au maintien de l’hypertravail. Mots-clés : temps de travail, longues heures de travail, conduites d’hypertravail, articulation travail-vie personnelle, socialisation plurielle et active, domination au travail.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
La structuration laser femtoseconde de verres d’oxydes est aujourd’hui un domaine de recherche en pleine expansion. L’interaction laser-matière est de plus en plus utilisée pour sa facilité de mise en œuvre et les nombreuses applications qui découlent de la fabrication des composants photoniques, déjà utilisés dans l’industrie des hautes technologies. En effet, un faisceau d’impulsions ultracourtes focalisé dans un matériau transparent atteint une intensité suffisante pour modifier la matière en trois dimensions sur des échelles micro et nanométriques. Cependant, l’interaction laser-matière à ces régimes d’intensité n’est pas encore complètement maîtrisée, et les matériaux employés ne sont pas entièrement adaptés aux nouvelles applications photoniques. Par ce travail de thèse, nous nous efforçons donc d’apporter des réponses à ces interrogations. Le mémoire est articulé autour de deux grands volets. Le premier aborde la question de l’interaction de surface de verres avec de telles impulsions lumineuses qui mènent à l’auto-organisation périodique de la matière structurée. L’influence du dopage en ions photosensibles et des paramètres d’irradiation est étudiée afin d’appuyer et de conforter le modèle d’incubation pour la formation de nanoréseaux de surface. À travers une approche innovante, nous avons réussi à apporter un contrôle de ces structures nanométriques périodiques pour de futures applications. Le second volet traite de cristallisation localisée en volume induite en grande partie par l’interaction laser-matière. Plusieurs matrices vitreuses, avec différents dopages en sel d’argent, ont été étudiées pour comprendre les mécanismes de précipitation de nanoparticules d’argent. Ce travail démontre le lien entre la physicochimie de la matrice vitreuse et le caractère hors équilibre thermodynamique de l’interaction qui influence les conditions de nucléation et de croissance de ces nano-objets. Tous ces résultats sont confrontés à des modélisations de la réponse optique du plasmon de surface des nanoparticules métalliques. Les nombreuses perspectives de ce travail ouvrent sur de nouvelles approches quant à la caractérisation, aux applications et à la compréhension de l’interaction laser femtoseconde pour l’inscription directe de briques photoniques dans des matrices vitreuses.
Resumo:
Ce mémoire présente l’étude numérique d’un emballement de turbine hydraulique axiale à échelle modèle. Cet état transitoire est simulé du point de meilleur rendement jusqu’à l’atteinte de 95% de la vitesse d’emballement. Pour ce faire, une méthodologie numérique est développée à l’aide du logiciel commercial ANSYS CFX en utilisant une approche "Unsteady Reynolds Averaged Navier-Stokes" avec modèle de turbulence k-ε. Cette méthodologie numérique a été validée grâce à des mesures expérimentales de pression acquises en situation d’emballement sur les aubes d’une roue de turbine axiale étudiée au Laboratoire de Machines Hydrauliques de l’Université Laval. La validation des simulations numériques a été réalisée grâce à des comparaisons dans les domaines temporel et fréquentiel entre les pressions mesurées expérimentalement et calculées numériquement. Les analyses fréquentielles en transitoire ont été effectuées à l’aide de transformées en ondelettes afin de représenter l’évolution temporelle du spectre de fréquence. Des analyses qualitatives de phénomènes hydrauliques prenant place dans la turbine sont aussi présentées. Les analyses effectuées ont permis de confirmer le développement d’un tourbillon en précession par rapport à la roue dans l’aspirateur provocant les fluctuations de pression dominantes à des fréquences subsynchrones. La comparaison entre les données expérimentales et numériques a permis de valider une stratégie de simulation transitoire et d’en définir les limites en vue de prochaines simulations d’emballement. Des tests supplémentaires sont suggérés pour améliorer la précision ou le niveau de confiance de la méthode.
Resumo:
La maladie d’Alzheimer (MA) est la maladie neurodégénérative qui cause le plus important nombre de cas de démence. On estime que près de 15% des canadiens âgés de plus de 65 ans sont atteints de la MA. Avec le vieillissement de la population, le nombre de cas augmentera de manière substantielle dans les prochaines années. À l’heure actuelle, aucun traitement ne permet de ralentir la progression de la maladie. Pour plus de 99% des cas, ses causes exactes demeurent indéterminées. Toutefois, de nombreux facteurs de risque ont été identifiés. Parmi eux, on retrouve plusieurs facteurs liés au métabolisme énergétique dont l’obésité et le diabète de type 2 (DT2). De manière intéressante, des modifications du métabolisme, telles qu’une résistance à l’insuline centrale et périphérique, sont également observées chez les patients Alzheimer. Afin de mieux comprendre l’interaction entre le DT2 et la MA, nous avons d’abord étudié les altérations métaboliques chez la souris triple transgénique (3xTg-AD), un modèle murin de la MA. Nous avons, en premier lieu, observé une intolérance au glucose qui progresse avec l’âge, qui est plus importante chez les femelles et qui semble liée à l’accumulation du peptide beta-amyloïde (Aβ) humain dans le pancréas. Ensuite, nous avons nourri cette souris avec une diète riche en gras pour vérifier l’impact d’une aggravation des déficits métaboliques sur la pathologie Alzheimer. L’aggravation de l’intolérance au glucose chez les souris 3xTg-AD semblait liée à l’atrophie des îlots de Langerhans et, en conséquence, à une réduction de la production d’insuline en réponse à l’injection de glucose. En plus de l’aggravation des déficits métaboliques, la diète riche en gras a augmenté de manière drastique l’accumulation de la forme soluble du peptide Aβ dans le cortex et a déterioré la mémoire des souris 3xTg-AD. De manière intéressante, l’élévation du peptide Aβ et les troubles de la mémoire ont été rétablis par l’administration d’une seule dose d’insuline. Aussi, nous avons observé une augmentation du peptide Aβ dans le plasma 30 minutes à la suite de l’injection d’insuline, suggérant qu’il est possible que la baisse rapide du peptide soit en partie causée par une élévation de la clairance du peptide au cerveau. Ces résultats renforcent les évidences supportant le potentiel thérapeutique de l’insuline dans le traitement de la MA. Toutefois, les résultats chez les patients mettent en lumière l’inefficacité de l’administration intranasale d’insuline chez les porteurs de l’allèle 4 du gène de l’apolipoprotéine E (APOE4). Afin de comprendre les raisons qui expliquent cette différence de réponse à l’insuline chez les porteurs de l’APOE4, nous avons injecté des souris exprimant l’APOE3 et l’APOE4 humain avec de l’insuline dans le but de vérifier l’effet central et périphérique de l’insuline chez ces animaux. Les souris APOE4 montrent une plus importante élévation de la signalisation de l’insuline au cerveau comparativement aux souris APOE3. Cette plus haute réponse est aussi associée à une élévation plus importante de la phosphorylation de la protéine tau, un marqueur neuropathologique de la MA. En somme, ces résultats suggèrent qu’il existe un cercle vicieux entre la MA et le DT2. L’administration d’insuline a un potentiel thérapeutique intéressant pour la MA, malgré des effets limités chez les patients APOE4 en raison de son impact probable sur la phosphorylation de la protéine tau.