10 resultados para Modèle pharmacocinétique à base physiologique

em Université Laval Mémoires et thèses électroniques


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La planification de l’approvisionnement forestier est une tâche complexe nécessitant la prise en compte de plusieurs facteurs qui opèrent dans un contexte instable. Au cours des dernières années, des modèles mathématiques ont été développés pour supporter les entreprises forestières dans leur processus de planification de l’approvisionnement. Néanmoins, le nouveau régime de gestion de la ressource établi par le gouvernement implique maintenant un marché libre de bois, ce qui engendre une nouvelle source d’incertitude. Les modèles d’approvisionnement forestier développés deviennent ainsi incomplets. L’objectif de cette recherche est donc de guider les industriels forestiers dans la planification de leur approvisionnement tout en leur offrant une approche de mise optimale dans le cadre d’enchères scellées au premier prix. Pour ce faire, nous avons exploré différentes stratégies d’approvisionnement regroupant un modèle de base avec approvisionnement via le bois garanti et les enchères, un autre incluant l’achat sur terres privées et un dernier prenant en considération la collaboration entre des partenaires industriels pour la mise aux enchères. Les modèles de planification des opérations forestières élaborés cherchent à maximiser le profit d’une compagnie forestière, tout en sélectionnant la combinaison optimale de secteurs forestiers sur lesquels miser dans les ventes aux enchères. Les résultats pour le cas étudié montrent qu’une compagnie qui applique l’approche de mise optimale proposée obtient une moyenne de gain plus élevée que les autres soumissionnaires qui n’appliquent pas une telle approche. De plus, lorsque la compagnie forestière intègre dans sa planification l’approvisionnement via des forêts privées, elle peut obtenir un profit plus élevé (augmentation de 5% par rapport au modèle de base). La collaboration s’avère la stratégie d’approvisionnement qui offre le profit le plus élevé pour la compagnie tout en permettant une utilisation plus efficace de la ressource forestière.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche est motivée par un cas d’étude ou on doit déterminer le nombre de pièces à tenir en stock à chaque base (noeud du réseau) pour répondre à la demande au niveau de chaque noeud. Si le niveau du stock par mois est suffisant, la demande est satisfaite directement par son stock local, sinon on fait appel au transfert latéral. D’ailleurs, nos expériences numériques indiquent que l’inclusion des transbordements latéraux dans des décisions d’inventaire est avantageuse. Cet effet est plus grand pour des taux de demandes et des coûts latéraux, élevés. Les résultats d’une étude de cas théorique basée sur les travaux de (Tagaras 1989) confirment nos résultats.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJECTIFS: La libération de dopamine par les afférences à sérotonine (5-HT) du striatum constitue un déterminant pré-synaptique important des dyskinésies induites par la L-Dopa (DILs), un effet délétère du traitement pharmacologique de la maladie de Parkinson. En effet, les axones 5-HT seraient en mesure de libérer de façon non-physiologique de la dopamine lorsque la L-Dopa est administrée au patient, contribuant ainsi à l’expression des DILs. Certaines afférences striatales 5-HT contiennent un transporteur vésiculaire du glutamate (VGluT3) et nous croyons que sa présence puisse avoir un effet synergique sur la libération de dopamine. L’objectif général de ce mémoire est donc d’évaluer la quantité de VGluT3 présent au sein des axones 5-HT et de mesurer son implication dans l’expression des DILs. MÉTHODES : Dix-huit souris C57/Bl6 ont été séparées en trois groupes expérimentaux. Douze souris ont reçu une injection intracérébrale de 6- hydroxydopamine (6-OHDA) dans le faisceau prosencéphalique médian afin de léser les afférences dopaminergiques du striatum. Six souris lésées ont reçu des injections systémiques de L-Dopa (12 jours, 1 fois/jour). Six autres souris ont reçu une injection intracérébrale du véhicule afin de servir de contrôle. La sévérité des mouvements involontaires anormaux induits par la L-Dopa (équivalent des dyskinésies) a été quantifiée selon une échelle reconnue. Un double marquage en immunofluorescence pour le transporteur membranaire de la 5-HT (SERT) et le VGluT3 a permis d’évaluer la densité des varicosités SERT+ et SERT+/VGluT3+ dans le striatum dorsal et de comparer ces données entre les trois groupes expérimentaux. RÉSULTATS: Chez les trois groupes de souris, un faible pourcentage des varicosités axonales 5-HT sont également VGluT3+. Ces varicosités doublement marquées sont souvent retrouvées sur une même branche axonale. Aucune différence significative n’a été observée entre les trois groupes expérimentaux en ce qui a trait à la proportion de varicosités SERT+ qui contiennent le VGluT3+. CONCLUSION: Nos données expérimentales ne nous permettent pas de conclure que la densité des varicosités axonales SERT+ ou SERT+/VGluT3+ au sein du striatum dorsal varie en fonction de la sévérité des mouvements involontaires anormaux induits par l’administration de L-Dopa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’isomérisation alcaline du lactose en lactulose a été effectuée électro-chimiquement à l’aide d’un réacteur d’électro-activation en combinaison avec des résines échangeuses d’anions de polystyrène de trois types; à savoir Lewatit VP-OC-1065 faible-acide, Lewatit MP-64 moyenne-acide et Lewatit Monoplus M500 forte-acide. Les paramètres opératoires qui ont fait l’objet de cette étude ont été étudiés sur trois blocs expérimentaux pour optimiser le système. Dans le Premier bloc, les paramètres étudiés sont : (1) ratio lactose-5%(p/v) : résine échangeuse d’anions (1:0.5, 1:1 et 1:2), (2) intensité du champ électrique : 50 mA, 100 mA et 200 mA et (3) type de résines : faible, moyenne et forte. Dans le Deuxième bloc, les paramètres mis à l’étude comprenaient : (1) l’intensité du champ électrique : 300 mA, 450 mA et 550 mA, (2) le débit de la solution traitée : 25 ml / min, 50 ml/ min et 100 ml/min et (3) la surface active de la membrane adjacente au compartiment cathodique : 0.78 cm2, 7.06 cm2 et 18.1 cm2. Le Troisième bloc expérimental a été effectué sur la base de la distance entre la membrane et l’électrode : 3.1 cm, 5.6 cm et 9 cm. Le même modèle expérimental a était également réalisé avec du perméat du lactosérum d’une concentration de 7% (p/v). Les résultats obtenus ont révélé que le meilleur rendement de l’isomérisation du lactose en lactulose était obtenu après 30 minutes d’électroactivation en utilisant une solution modèle de lactose-5% avec une valeur d’environ 20.1%. Les conditions opératoires qui ont permis d’avoir ce taux de conversion sont une intensité du courant de 550 mA, un débit de la solution de 25 ml/min, une surface active de la membrane de 7.06 cm2 et une distance de 9 cm entre la cathode et la membrane qui lui y est adjacente. En utilisant le perméat de lactosérum-7%, un taux de conversion de lactose en lactulose de 8.34% a était obtenu avec une intensité du courant de 200 mA, un débit de 120 ml/min, une surface active de de 18.1cm2 et une distance de 9 cm entre la membrane et l’électrode dans le compartiment cathodique. Les analyses de variance ont indiqué un effet catalytique significatif du type de la résine. En effet, la résine-forte a permis d’avoir les plus hauts rendements de la réaction d’isomérisation par électro-activation. La résistance électrique globale du système d’électroactivation dépendait de la valeur de l’intensité du courant. Le produit final était d’une grande pureté, car il ne présentait que quelques traces de galactose (< 4%).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les applications Web en général ont connu d’importantes évolutions technologiques au cours des deux dernières décennies et avec elles les habitudes et les attentes de la génération de femmes et d’hommes dite numérique. Paradoxalement à ces bouleversements technologiques et comportementaux, les logiciels d’enseignement et d’apprentissage (LEA) n’ont pas tout à fait suivi la même courbe d’évolution technologique. En effet, leur modèle de conception est demeuré si statique que leur utilité pédagogique est remise en cause par les experts en pédagogie selon lesquels les LEA actuels ne tiennent pas suffisamment compte des aspects théoriques pédagogiques. Mais comment améliorer la prise en compte de ces aspects dans le processus de conception des LEA? Plusieurs approches permettent de concevoir des LEA robustes. Cependant, un intérêt particulier existe pour l’utilisation du concept patron dans ce processus de conception tant par les experts en pédagogie que par les experts en génie logiciel. En effet, ce concept permet de capitaliser l’expérience des experts et permet aussi de simplifier de belle manière le processus de conception et de ce fait son coût. Une comparaison des travaux utilisant des patrons pour concevoir des LEA a montré qu’il n’existe pas de cadre de synergie entre les différents acteurs de l’équipe de conception, les experts en pédagogie d’un côté et les experts en génie logiciel de l’autre. De plus, les cycles de vie proposés dans ces travaux ne sont pas complets, ni rigoureusement décrits afin de permettre de développer des LEA efficients. Enfin, les travaux comparés ne montrent pas comment faire coexister les exigences pédagogiques avec les exigences logicielles. Le concept patron peut-il aider à construire des LEA robustes satisfaisant aux exigences pédagogiques ? Comme solution, cette thèse propose une approche de conception basée sur des patrons pour concevoir des LEA adaptés aux technologies du Web. Plus spécifiquement, l’approche méthodique proposée montre quelles doivent être les étapes séquentielles à prévoir pour concevoir un LEA répondant aux exigences pédagogiques. De plus, un répertoire est présenté et contient 110 patrons recensés et organisés en paquetages. Ces patrons peuvent être facilement retrouvés à l’aide du guide de recherche décrit pour être utilisés dans le processus de conception. L’approche de conception a été validée avec deux exemples d’application, permettant de conclure d’une part que l’approche de conception des LEA est réaliste et d’autre part que les patrons sont bien valides et fonctionnels. L’approche de conception de LEA proposée est originale et se démarque de celles que l’on trouve dans la littérature car elle est entièrement basée sur le concept patron. L’approche permet également de prendre en compte les exigences pédagogiques. Elle est générique car indépendante de toute plateforme logicielle ou matérielle. Toutefois, le processus de traduction des exigences pédagogiques n’est pas encore très intuitif, ni très linéaire. D’autres travaux doivent être réalisés pour compléter les résultats obtenus afin de pouvoir traduire en artéfacts exploitables par les ingénieurs logiciels les exigences pédagogiques les plus complexes et les plus abstraites. Pour la suite de cette thèse, une instanciation des patrons proposés serait intéressante ainsi que la définition d’un métamodèle basé sur des patrons qui pourrait permettre la spécification d’un langage de modélisation typique des LEA. L’ajout de patrons permettant d’ajouter une couche sémantique au niveau des LEA pourrait être envisagée. Cette couche sémantique permettra non seulement d’adapter les scénarios pédagogiques, mais aussi d’automatiser le processus d’adaptation au besoin d’un apprenant en particulier. Il peut être aussi envisagé la transformation des patrons proposés en ontologies pouvant permettre de faciliter l’évaluation des connaissances de l’apprenant, de lui communiquer des informations structurées et utiles pour son apprentissage et correspondant à son besoin d’apprentissage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au cours des dernières décennies, la recherche scientifique, toutes disciplines confondues, s’est particulièrement intéressée aux phénomènes et questionnements identitaires, notamment en ce qui concerne les groupes et les mouvements minoritaires ou marginaux, mais également en ce qui concerne la question des identités nationales dont se délectent à leur tour politiciens et médias. Véritable reflet d’un des enjeux majeurs de nos sociétés contemporaines, cet intérêt des chercheurs pour les phénomènes identitaires a particulièrement porté sur l’étude des processus de construction et d’affirmation des identités individuelles et collectives, c’est-à-dire sur les modes et les modalités à partir desquels les identités se construisent, se structurent et sont affirmées dans un rapport comparatif, compétitif et dialogique entre le Soi et l’Autre. Si notre compréhension des phénomènes identitaires s’est considérablement précisée et nuancée depuis la publication dans les années 1950, voire antérieurement, des études fondamentales et fondatrices, il n’en demeure pas moins que le concept d’identité, peu importe les multiples terminologies qu’il peut prendre selon les disciplines, pose actuellement de nombreux problèmes et s’avère abondamment galvaudé par certaines recherches récentes qui en font usage sans nécessairement le définir, voire pire, le maîtriser, comme un champ d’études à la mode qu’il convient d’investir afin d’alimenter un lectorat avide de ces questions et problèmes identitaires. Il est vrai que les travaux scientifiques sur les identités paraissent à un rythme soutenu, voire insoutenable tant cette production est abondante et diversifiée. Tour à tour, les identités ethniques, nationales, provinciales, régionales, politiques, culturelles, religieuses, de genre, des groupes ou mouvements minoritaires et marginaux, pour ne nommer que certains des principaux champs d’investigation, ont été interrogées. Loin de se limiter aux sociétés, aux individus et aux collectivités modernes, les identités du passé, toutes périodes confondues, ont également été revisitées à la lumière des outils d’interprétation développés, entre autres, par la sociologie, par l’anthropologie culturelle et par la psychologie sociale. Bien évidemment, les spécialistes de l’Antiquité n’ont pas échappé à cette tendance, partant à leur tour à la conquête de l’identité (ou des identités) grecque(s), romaine(s), barbare(s), judéenne(s) et chrétienne(s). Leur intérêt s’est également porté sur les identités propres aux diverses catégories ou collectivités sociales, politiques, juridiques, religieuses et professionnelles. Toutefois, aborder la question des identités dans l’Antiquité oblige à délaisser les définitions et compréhensions modernes au profit d’un tout autre mode raisonnement identitaire et d’appartenance propre aux sociétés et collectivités anciennes en prenant en considération les dimensions « – emic » et « – etic » que requiert l’utilisation de cette notion afin d’en avoir recours comme une catégorie d’analyse adéquate pour cette période particulière, une approche double et complémentaire trop souvent négligée par une majorité de recherches dont les résultats aboutissent inévitablement à une compréhension anachronique et « distorsionnée » des réalités anciennes, ce qui est d’autant plus le cas en histoire des religions et des communautés socioreligieuses de l’Antiquité en raison de nombreux présupposés idéologiques et théologiques qui dominent encore tout un pan de l’historiographie actuelle. Bien que le concept même d’identité n’existe pas dans l’Antiquité, le terme « identitas » renvoyant à une tout autre réalité, cela ne signifie pas pour autant que les Anciens n’avaient aucune conscience de leur(s) identité(s) et qu’il est impossible pour nous modernes d’étudier les phénomènes et les discours identitaires antiques. Toutefois, cela impose d’aborder ces phénomènes avec une très grande prudence et beaucoup de nuances en évitant les généralisations hâtives et en circonscrivant bien les contextes d’énonciation dans lesquels ces identités se sont construites et ont été affirmées, car, déterminées par les appartenances, la définition de ces identités s’est constamment élaborée et réélaborée sur un rapport Soi / Autre, inclusion / exclusion et a reposé sur des stratégies discursives qui ont varié selon les époques, les lieux, les auteurs et les contextes d’énonciation. L’enjeu principal est alors de comprendre les stratégies et les mécanismes mis en œuvre par les auteurs anciens dans les processus discursifs de construction identitaire de leur groupe d’appartenance. Produit d’une rhétorique, l’étude des identités anciennes oblige donc de distinguer, ce qui est certes complexe, discours et réalités sociales, du moins cela oblige, encore une fois, à une extrême prudence et beaucoup de nuances afin de ne pas confondre discours et réalités. Si les discours ont effectivement pour effet d’ériger des frontières identitaires fixes et imperméables entre les différents groupes et collectivités, l’étude de la réalité vécue par les acteurs sociaux montre que ces frontières étaient plutôt fluides et perméables. Pour étudier la question des identités dans l’Antiquité, plusieurs postes d’observation peuvent êtres sollicités en s’intéressant, notamment, à la formation des identités, à l’identité en auto-définition, à l’identité dans le miroir de l’Autre, à l’impact des interactions entre le Soi et l’Autre sur les définitions identitaires, aux frontières identitaires et à leurs transgresseurs, aux marqueurs identitaires, etc. Ces différentes approches, notamment lorsqu’elles sont combinées les unes aux autres, contribuent à mettre en évidence la complexité des processus de construction des identités dans l’Antiquité dont on reconnaît désormais le caractère fluide, dynamique et discursif, malgré les idéologies de stabilité sur lesquelles elles se sont élaborées et polémiquées. Loin de susciter de vains débats, les études sur les identités dans l’Antiquité permettent d’aborder sous un angle novateur certains acquis de la recherche et de leur apporter de riches nuances. Cependant, interpréter les phénomènes identitaires anciens à partir de paradigmes, de terminologies et de catégories erronés ou anachroniques a également pour conséquence indéniable de parvenir à une relecture « distorsionnée », si ce n’est orientée, du passé, en lui imposant des catégories de définition et d’auto-définition identitaires qui n’existaient pas dans l’Antiquité. C’est pourquoi il importe également, lorsqu’on tente d’aborder ces phénomènes identitaires, de réfléchir sur les paradigmes, les terminologies et les catégories qui sont invoqués par en parler et ne pas hésiter à les remettre en question en refusant d’adhérer, de manière consciente ou inconsciente, à un quelconque modèle préétabli. S’inscrivant dans ce courant réflexif majeur de l’historiographique actuelle sur l’étude des phénomènes de construction identitaire dans l’Antiquité, notre recherche s’intéresse plus particulièrement aux processus de construction de discours d’appartenance dans la littérature judéenne et chrétienne aux Ier et IIe siècles. Sans avoir cherché à circonscrire une définition unique et unilatérale des identités judéennes et chrétiennes de cette période – définition qui s’avère, selon nous, plus utopique que réaliste en raison de la pluralité des mouvements qui composent le « judaïsme » et le « christianisme » anciens et des auteurs qui ont tenté, par leurs discours, de définir et présenter ces identités – ou tenter d’établir une liste de critères à respecter pour délimiter ce qu’est l’identité judéenne ou chrétienne – et, par conséquent, ceux qui peuvent ou non se réclamer d’être Judéens ou chrétiens –, la perspective que nous adoptons dans cette recherche est plutôt de réfléchir à la manière dont il convient d’aborder les identités anciennes et les processus de construction identitaire dans l’Antiquité. Notre réflexion se veut donc d’abord et avant tout une réflexion méthodologique, épistémologique, terminologique et historiographique des questions et phénomènes identitaires dans l’Antiquité, notamment en ce qui concerne les identités judéennes et chrétiennes des Ier et IIe siècles qui sont abordées à partir de divers postes d’observation et dans une perspective socio-historique qui adopte une démarche « – emic » et « – etic ». Notre recherche est divisée en trois parties. La première sera consacrée aux discussions d’ordre « – etic », c’est-à-dire aux réflexions et aux remarques méthodologiques, épistémologiques, terminologiques et historiographies sur l’approche des phénomènes identitaires et de l’identité chrétienne dans l’Antiquité. Le chapitre I présentera des remarques historiographiques sur les travaux récents en histoire du « christianisme » ancien. Dans le chapitre II, nous discuterons des concepts modernes d’« identité », de « race » et d’« ethnie ». Le chapitre III présentera quelques réflexions épistémologiques et méthodologiques sur l’application des théories et concepts modernes aux réalités antiques dans l’approche des phénomènes identitaires. Finalement, le chapitre IV reviendra sur les différents paradigmes interprétatifs qui ont été utilisés dans le débat moderne sur la question du Parting of the Ways. La deuxième partie sera consacrée à la présentation des cadres contextuels du « judaïsme » et du « christianisme » anciens. Le chapitre V dressera un portrait général de la pluralité qui caractérise le « judaïsme » ancien à la période romaine (Ier – IIe siècles) et des principaux marqueurs identitaires des communautés judéennes de cette époque. Dans le chapitre VI, il sera question de l’origine et de l’expansion du « judaïsme chrétien » dans l’Empire romain (Ier – IIe siècles) de même que de la pluralité des courants chrétiens. La troisième partie abordera la dimension « – emic » de notre recherche en s’intéressant aux processus discursifs de construction de l’identité chrétienne à partir de différents postes d’observation. Le chapitre VII analysera la présentation que l’auteur des Actes des apôtres fait des conditions d’entrée et des premières règles de vie dans la communauté chrétienne. Le chapitre VIII s’intéressera aux enjeux liés à la perception et à la représentation du Soi et de l’Autre en tentant de comprendre comment le mouvement chrétien a tenté de s’auto-définir et comment il a été défini par l’Altérité. Finalement, le chapitre IX analysera la manière dont les auteurs chrétiens se sont approprié le terme « γένος » et comment ils l’ont redéfini sur la base de critères cultuels ou religieux afin de présenter l’originalité distinctive du mouvement chrétien.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bien qu’ils soient exposés tous deux aux rayons ultraviolets (UVR) solaires, cette exposition génotoxique n’entraîne pas les mêmes conséquences dans l’oeil et la peau. Le rôle des rayons UV dans l’induction et la progression des cancers cutanés est bien démontré. Ces rayons génotoxiques sont absorbés par l’ADN. Ils y induisent ainsi des changements conformationnels pouvant mener à la formation de différents dommages. On retrouve de façon prédominante la liaison de pyrimidines adjacentes en dimères cyclobutyliques de pyrimidines (CPD). Ceux-ci causent les mutations signatures responsables des cancers de la peau induits par les UVR. Cependant, aucune évidence ne démontre l’existence de cancer induit par les UVR dans la cornée. Nous avons donc tenté de découvrir les mécanismes permettant à la cornée d’éviter la transformation tumorale induite par les UVR. L’irradiation d’yeux de lapins aux rayons UVB a permis de prouver la capacité de ces rayons à induire la formation de CPD, et ce, de la cornée jusqu’au cristallin. Par la suite, l’irradiation d’yeux humains aux trois types de rayons UV (UVA, B et C) a permis d’y établir leur patron d’induction de CPD. Nous avons ainsi démontré que l’épithélium cornéen est particulièrement sensible à l’induction de CPD, tous types de rayons UV confondus. Enfin, la comparaison de la quantité de dommages présents dans des échantillons de peaux et de cornées irradiées à la même dose d’UVB a permis de démontrer que l’épithélium cornéen est 3.4 fois plus sensible à l’induction de CPD que l’épiderme. Nous avons par la suite étudié les mécanismes de réponse à ce stress. L’analyse de la viabilité cellulaire à la suite d’irradiations à différentes doses d’UVB a révélé que les cellules de la cornée et de la peau ont la même sensibilité à la mort cellulaire induite par les UVR. Nous avons alors analysé la vitesse de réparation des dommages induits par les UVR. Nos résultats démontrent que les CPD sont réparés 4 fois plus rapidement dans les cellules de la cornée que de la peau. L’analyse des protéines de reconnaissance des dommages a révélé que les cellules de la cornée possèdent plus de protéines DDB2 que les cellules de la peau, et ce, surtout liées à la chromatine. Nous avons alors tenté d’identifier la cause de cette accumulation. Nos analyses révèlent que la cornée possède une moins grande quantité d’ARNm DDB2, mais que la demi-vie de la protéine y est plus longue. Enfin, nos résultats suggèrent que l’accumulation de DDB2 dans les cellules de la cornée est entre autres due à une demi-vie plus longue de la protéine. Cette forte présence de DDB2 dans les cellules de la cornée permettrait un meilleur balayage de l’ADN, faciliterait de ce fait la détection de CPD ainsi que leur réparation et contribuerait donc à la capacité de la cornée à éviter la transformation tumorale induite par les UVR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.