208 resultados para Commande optimale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La résilience en Côte d’Ivoire implique des mesures ciblées et pertinentes. Le pardon, le dialogue et la réconciliation ne signifient pas un oubli extrême. La cicatrice n’empêche pas le retour vers un équilibre de cohésion sociale via la stabilité sociopolitique. Le contexte de construction démocratique interroge les valeurs éthiques mobilisables, comme la justice, la capacité collective de dépassement du traumatisme, et les relations communautaires. Nous les passons en revue en introduisant l’altruisme et le capital social de façon polyvalente, aussi bien dans leurs aspects positifs que négatifs. La résilience ne peut être imposée, elle doit respecter les préférences des personnes et donc rester optimale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les régions nordiques à pergélisol seront largement affectées par l'augmentation prévue des températures. Un nombre croissant d’infrastructures qui étaient autrefois construites avec confiance sur des sols gelés en permanence commencent déjà à montrer des signes de détérioration. Les processus engendrés par la dégradation du pergélisol peuvent causer des dommages importants aux infrastructures et entrainer des coûts élevés de réparation. En conséquence, le contexte climatique actuel commande que la planification des projets dans les régions nordiques s’effectue en tenant compte des impacts potentiels de la dégradation du pergélisol. Ce mémoire porte sur l’utilisation de systèmes d’information géographique (SIG) appliqués à l’évaluation du potentiel d’aménagement des territoires situés en milieu de pergélisol. En utilisant une approche SIG, l’objectif est d’élaborer une méthodologie permettant de produire des cartes d'évaluation des risques afin d’aider les collectivités nordiques à mieux planifier leur environnement bâti. Une analyse multi-échelle du paysage est nécessaire et doit inclure l'étude des dépôts de surface, la topographie, ainsi que les conditions du pergélisol, la végétation et les conditions de drainage. La complexité de l'ensemble des interactions qui façonnent le paysage est telle qu'il est pratiquement impossible de rendre compte de chacun d'eux ou de prévoir avec certitude la réponse du système suite à des perturbations. Ce mémoire présente aussi certaines limites liées à l’utilisation des SIG dans ce contexte spécifique et explore une méthode innovatrice permettant de quantifier l'incertitude dans les cartes d'évaluation des risques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs recherches sont effectuées sur la laitue commercialisée (Lactuca sativa L.), afin d’améliorer sa résistance aux ravageurs. L’objectif de cette étude est d’examiner les impacts de la résistance de la laitue sur le puceron de la laitue, Nasonovia ribisnigri (Mosley) (Hemiptera : Aphididae) et son parasitoïde, Aphidius ervi Haliday (Hymenoptera: Braconidae). La résistance de la laitue affecte négativement la valeur adaptative du puceron en augmentant sa mortalité et son temps de développement et en diminuant sa fécondité, sa taille et son poids. Cet impact sur la valeur adaptative du puceron affecte aussi négativement le parasitoïde qui s'y développe en diminuant le pourcentage d’émergence, la taille et le poids des adultes, et en diminuant la fécondité des femelles. La femelle parasitoïde estime de manière absolue la qualité de ses hôtes puisqu’elle peut discriminer entre des hôtes de bonne et de faible qualité, sans expérience préalable. L’acceptation des hôtes de bonne qualité est similaire lorsqu’ils sont présentés successivement à la femelle; l’estimation de la valeur des hôtes est donc adéquate dès la première rencontre. Cependant, cet estimé absolu est modifié par l'expérience, puisque la femelle peut changer son exploitation selon la qualité des agrégats rencontrés. Lorsque des hôtes de basse qualité sont présentés successivement, l’acceptation de la femelle augmente. Accepter des hôtes de mauvaise qualité pour l’oviposition peut être préférable que de risquer de ne pas pondre tous ses œufs. L’utilisation d’une estimation absolue et relative par A. ervi peut mener à une exploitation optimale des agrégats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux effectués dans le cadre de cette thèse de doctorat avaient pour but de mettre au point des nouvelles formulations d’antifongiques sous forme de nanoparticules polymériques (NP) en vue d’améliorer l’efficacité et la spécificité des traitements antifongiques sur des souches sensibles ou résistantes de Candida spp, d’Aspergillus spp et des souches de Candida albicans formant du biofilm. Dans la première partie de ce travail, nous avons synthétisé et caractérisé un polymère à base de polyester-co-polyéther branché avec du poly(éthylène glycol) (PEG-g-PLA). En plus d’être original et innovant, ce co-polymère a l’avantage d’être non-toxique et de posséder des caractéristiques de libération prolongée. Trois antifongiques couramment utilisés en clinique et présentant une biodisponibilité non optimale ont été choisis, soient deux azolés, le voriconazole (VRZ) et l’itraconazole (ITZ) et un polyène, l’amphotéricine B (AMB). Ces principes actifs (PA), en plus des problèmes d’administration, présentent aussi d’importants problèmes de toxicité. Des NP polymériques encapsulant ces PA ont été préparées par une technique d’émulsion huile-dans-l’eau (H/E) suivie d’évaporation de solvant. Une fois fabriquées, les NP ont été caractérisées et des particules de d’environ 200 nm de diamètre ont été obtenues. Les NP ont été conçues pour avoir une structure coeur/couronne avec un coeur constitué de polymère hydrophobe (PLA) et une couronne hydrophile de PEG. Une faible efficacité de chargement (1,3% m/m) a été obtenue pour la formulation VRZ encapsulé dans des NP (NP/VRZ). Toutefois, la formulation AMB encapsulée dans des NP (NP/AMB) a montré des taux de chargement satisfaisants (25,3% m/m). En effet, le caractère hydrophobe du PLA a assuré une bonne affinité avec les PA hydrophobes, particulièrement l’AMB qui est le plus hydrophobe des agents sélectionnés. Les études de libération contrôlée ont montré un relargage des PA sur plusieurs jours. La formulation NP/AMB a été testée sur un impacteur en cascade, un modèle in vitro de poumon et a permis de démontrer le potentiel de cette formulation à être administrée efficacement par voie pulmonaire. En effet, les résultats sur l’impacteur en cascade ont montré que la majorité de la formulation s’est retrouvée à l’étage de collecte correspondant au niveau bronchique, endroit où se situent majoritairement les infections fongiques pulmonaires. Dans la deuxième partie de ces travaux, nous avons testé les nouvelles formulations d’antifongiques sur des souches planctoniques de Candida spp., d’Aspergillus spp. et des souches de Candida albicans formant du biofilm selon les procédures standardisées du National Committee for Clinical Laboratory Standards (NCCLS). Les souches choisies ont démontré des résistances aux azolés et aux polyènes. Les études d’efficacité in vitro ont permis de prouver hors de tout doute que les nouvelles formulations offrent une efficacité nettement améliorée comparée à l’agent antifongique libre. Pour mettre en lumière si l’amélioration de l’efficacité antifongique était due à une internalisation des NP, nous avons évalué le comportement des NP avec les cellules de champignons. Nous avons procédé à des études qualitatives de microscopie de fluorescence sur des NP marquées avec de la rhodamine (Rh). Tel qu’attendu, les NP ont montré une localisation intracellulaire. Pour exclure la possibilité d’une simple adhésion des NP à la surface des levures, nous avons aussi confirmé leur internalisation en microscopie confocale de fluorescence. Il est important de noter que peu d’études à ce jour ont mis l’accent sur l’élaboration de nouvelles formulations d’antifongiques à base de polymères non toxiques destinées aux traitements des mycoses, donnant ainsi une grande valeur et originalité aux travaux effectués dans cette thèse. Les résultats probants obtenus ouvrent la voie vers une nouvelle approche pour contourner les problèmes de résistances fongiques, un problème de plus en plus important dans le domaine de l’infectiologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La régulation de l’homéostasie du fer est cruciale chez les bactéries. Chez Salmonella, l’expression des gènes d’acquisition et du métabolisme du fer au moment approprié est importante pour sa survie et sa virulence. Cette régulation est effectuée par la protéine Fur et les petits ARN non codants RfrA et RfrB. Le rôle de ces régulateurs est d’assurer que le niveau de fer soit assez élevé pour la survie et le métabolisme de Salmonella, et assez faible pour éviter l’effet toxique du fer en présence d’oxygène. Les connaissances concernant le rôle de ces régulateurs ont été principalement obtenues par des études chez S. Typhimurium, un sérovar généraliste causant une gastro-entérite chez les humains. Très peu d’informations sont connues sur le rôle de ces régulateurs chez S. Typhi, un sérovar humain-spécifique responsable de la fièvre typhoïde. Le but de cette étude était de déterminer les rôles de Fur, RfrA et RfrB dans l’homéostasie du fer et la virulence de Salmonella, et de démontrer qu’ils ont une implication distincte chez les sérovars Typhi et Typhimurium. Premièrement, Fur, RfrA et RfrB régulent l’homéostasie du fer de Salmonella. Les résultats de cette étude ont démontré que Fur est requis pour la résistance au stress oxydatif et pour une croissance optimale dans différentes conditions in vitro. La sensibilité du mutant fur est due à l’expression des petits ARN RfrA et RfrB, et cette sensibilité est beaucoup plus importante chez S. Typhi que chez S. Typhimurium. Également, Fur inhibe la transcription des gènes codant pour les sidérophores en conditions riches en fer, tandis que les petits ARN RfrA et RfrB semblent être importants pour la production d’entérobactine et de salmochélines chez S. Typhi lors de conditions pauvres en fer. Ensuite, ces régulateurs affectent la virulence de Salmonella. Fur est important pour la motilité de Salmonella, particulièrement chez S. Typhi. Fur est nécessaire pour l’invasion des deux sérovars dans les cellules épithéliales, et pour l’entrée et la survie de S. Typhi dans les macrophages. Chez S. Typhimurium, Fur ne semble pas impliqué dans l’interaction avec les macrophages. De plus, les petits ARN RfrA et RfrB sont importants pour la multiplication intracellulaire de Salmonella dans les macrophages pour les deux sérovars. Finalement, la protéine Fur et les petits ARN RfrA et RfrB régulent l’expression de l’opéron fimbriaire tcf, absent du génome de S. Typhimurium. Un site de liaison putatif de la protéine Fur a été identifié dans la région promotrice de tcfA chez S. Typhi, mais une régulation directe n’a pas été confirmée. L’expression de tcf est induite par le fer et par Fur, et est inhibée par les petits ARN RfrA et RfrB. Ainsi, ces régulateurs affectent des gènes de virulence qui sont retrouvés spécifiquement chez S. Typhi. En somme, ce projet a permis de démontrer que les régulateurs de l’homéostasie du fer de Salmonella peuvent affecter la résistance de cette bactérie pathogène à différents stress, notamment le stress oxydatif, la croissance en conditions de carence en fer ainsi que la virulence. Ces régulateurs jouent un rôle distinct chez les sérovars Typhi et Typhimurium.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis questions the major esthetic differences between the artistic productions of the Second Spanish Republic (1931-1939) and the nationalist artistic productions of the Civil War years and the first decade of the francoist dictatorship. These differences are analysed using the artistic productions of Josep Renau (1907 Valence – 1982 Berlin East) and of Ignacio Zuloaga (Elibar 1870 – Madrid 1945). Renau was an important artistic figure during the Spanich Republic. In this thesis, we analyse Renau’s different propaganda productions between 1931 and 1939. Zuloaga was an international artist when the nationalist uprising occurred in 1936. He was recognized by the European elites for his portraits of Andalousian and Castillian sceneries. Zuloaga supported the nationalist putsch and the francoist ideology. In 1939, the Caudillo ordered the painting of the portrait that we will be analysing. The theories of François Hartog, Reinhart Koselleck, Paul Ricoeur and Hannah Arendt are used to analyse the historical conceptual confrontation in Spain, portrayed by the artworks that we studied. During the Republic, it was the modern historical regime that was in force. The historical references used are close in time and the history is constructed in the future and attached to the idea of progress. With the nationalists, the historical conception is connected to the Historia magistra where the past is used as an example. In the first francoism, a return to Spain’s glorious past (the Middle Ages, the Golden Century and the Counter Reform) is clearly claimed in order to rescue the country from the ills of modernity. It is with these different historical conceptions in mind that we compare the esthetics specificities of the artworks, the identity and historical references and the mediums used to legitimize the power and the political actions of each front.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail se situe dans la perspective des études sur la protection des savoirs traditionnels contre la biopiraterie commise par quelques industries pharmaceutiques et cosmétiques. Malgré le débat qui s’est déroulé à ce sujet après la signature de la Convention sur la diversité biologique, ces patrimoines culturels continuent d’être largement menacés. L’étude se propose d’analyser les mécanismes capables de protéger contre la biopiraterie les savoirs traditionnels associés à la biodiversité qui intéressent l’industrie pharmaceutique, et ce, par le biais des droits de propriété intellectuelle existants aussi bien à l’échelle internationale que dans le cadre des législations nationales. Ces mécanismes sont évalués quant à leur efficacité, en vue d’en identifier les plus intéressants, susceptibles d’être adoptés soit par des pays qui ne disposent pas encore de législation en matière de protection des savoirs traditionnels soit pour être utilisés dans le cadre international. Avec cet objectif, le présent travail dressera un panorama concernant la législation du Brésil, du Costa Rica et du Pérou. En outre, seront mises en exergue par la suite les différentes conventions en lien avec les savoirs traditionnels, à savoir la Convention sur la diversité biologique, le Protocole de Nagoya, le Comité intergouvernemental de la propriété intellectuelle relative aux ressources génétiques, aux savoirs traditionnels et au folklore de l’Organisation mondiale de la propriété intellectuelle. L’analyse menée a mis en lumière un certain nombre de dispositions assez efficaces pouvant être utilisées de façon optimale par des pays ne disposant pas de législation en matière de protection des savoirs traditionnels ou encore pouvant être intégrées dans des traités internationaux en la matière, afin de rendre lesdits traités plus efficaces sur le plan pratique. Bien plus, ladite analyse démontre que l’Accord sur les aspects des droits de propriété intellectuelle qui touchent au commerce est actuellement l’accord le plus coercitif et le plus contraignant lorsque l’on veut mener une lutte efficace contre la biopiraterie. Par ailleurs, en s’appuyant sur des fondements théoriques constructivistes, notre analyse essaye de démontrer que les pays du Sud, riches en biodiversité et en savoirs traditionnels, peuvent véritablement impulser un mouvement en faveur d’une législation internationale efficace en matière de protection des savoirs traditionnels

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le virus du papillome humain (VPH) est l’agent étiologique du cancer du col utérin, ainsi que d’autre néoplasies anogénitales et des voies aérodigestives supérieures. La réplication de son génome d’ADN double brin est assurée par les protéines virales E1 et E2, de concert avec la machinerie cellulaire de réplication. E1 assure le déroulement de l’ADN en aval de la fourche de réplication, grâce à son activité hélicase, et orchestre la duplication du génome viral. Nos travaux antérieurs ont démontré que le domaine N-terminal de E1 contient un motif de liaison à la protéine cellulaire p80/UAF1 qui est hautement conservé chez tous les VPH anogénitaux. L’intégrité de ce motif est essentielle au maintien de l’épisome viral. Les travaux présentés dans cette thèse ont d’abord déterminé que le motif de liaison à UAF1 n’est pas requis pour l’assemblage du pré-réplisome viral, mais important pour la réplication subséquente de l’ADN du VPH. Nous avons constaté qu’en présence de E1 et E2, UAF1 est relocalisé dans des foyers nucléaires typiques de sites de réplication du virus et qu’en outre, UAF1 s’associe physiquement à l’origine de réplication du VPH. Nous avons aussi déterminé que l’inhibition du recrutement de UAF1 par la surexpression d’un peptide dérivé de E1 (N40) contenant le motif de liaison à UAF1 réduit la réplication de l’ADN viral. Cette observation soutient le modèle selon lequel UAF1 est relocalisé par E1 au réplisome pour promouvoir la réplication de l’ADN viral. UAF1 est une protéine à domaine WD40 n’encodant aucune activité enzymatique et présumée exploiter des interactions protéine-protéine pour accomplir sa fonction. Nous avons donc investigué les protéines associées à UAF1 dans des cellules du col utérin et avons détecté des interactions avec les enzymes de déubiquitination USP1, USP12 et USP46, ainsi qu’avec la phosphatase PHLPP1. Nous avons établi que E1 forme un complexe ternaire avec UAF1 et n’importe laquelle des USP associés : USP1, USP12 ou USP46. Ces USP sont relocalisés au noyau par E1 et s’associent à l’ADN viral. De plus, l’activité enzymatique des USP est essentielle à la réplication optimale du génome viral. Au contraire, PHLPP1 ne forme pas de complexe avec E1, puisque leurs interactions respectives avec UAF1 sont mutuellement exclusives. PHLPP1 contient un peptide de liaison à UAF1 homologue à celui de E1. Ce peptide dérivé de PHLPP1 (P1) interagit avec le complexe UAF1-USP et, similairement au peptide N40, antagonise l’interaction E1-UAF1. Incidemment, la surexpression du peptide P1 inhibe la réplication de l’ADN viral. La génération de protéines chimériques entre P1 et des variants de E1 (E1Δ) défectifs pour l’interaction avec UAF1 restaure la capacité de E1Δ à interagir avec UAF1 et USP46, ainsi qu’à relocaliser UAF1 dans les foyers nucléaires contenant E1 et E2. Ce recrutement artificiel de UAF1 et des USP promeut la réplication de l’ADN viral, un phénotype dépendant de l’activité déubiquitinase du complexe. Globalement, nos travaux suggèrent que la protéine E1 du VPH interagit avec UAF1 afin de recruter au réplisome un complexe de déubiquitination dont l’activité est importante pour la réplication de l’ADN viral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis le début des années 80, les systèmes d’éducation à travers le monde recommandent l’intégration des élèves malentendants en classe ordinaire. Malgré l’utilisation d’aides auditives et de système MF, les élèves vivent des périodes où l’amplification reçue est insuffisante ou non optimale. Ces périodes sont causées par des facteurs influençant leurs conditions de communication et cela peut nuire à leurs apprentissages. Pourtant, les études sur ces situations vécues par les élèves ont très peu considéré leur point de vue. L’étude présentée vise à 1) de documenter les perceptions des situations de communication en classe mentionnées par des élèves malentendants intégrés, appareillés et ayant un système MF décerné ou rapportées à des professionnels; 2) de comprendre le contexte dans lequel des conditions non optimales de communication surviennent; 3) d’identifier les stratégies compensatoires rapportées par l’élève ou son locuteur ou déployées lors de leur participation aux activités de classe. Cette étude de cas multiples combine des données qualitatives et quantitatives recueillies à partir d’entrevues en profondeur auprès de huit élèves malentendants, de courtes entrevues avec leur enseignant et leur intervenant principal et une session d’observation en classe au cours de laquelle le niveau de bruit a été mesuré et les positions de l’enseignant ont été notées. Les données ont été analysées de manière longitudinale afin de décrire les participants et transversale afin de les comparer. Les résultats montrent que les élèves malentendants parlent de leurs situations de communication en classe, surtout les plus difficiles en associant toutes leurs difficultés au locuteur ou au milieu et non à eux-mêmes. Pour ce qui est du contexte, des niveaux élevés de bruit ont été mesurés et les positions des enseignants montrent qu’ils sont généralement loin de l’enfant malentendant ou qu’ils ne lui font pas face. Par ailleurs, les enseignants mentionnent ne pas avoir assez d’informations pour bien venir en aide à ces élèves. Enfin, les élèves et leurs enseignants utilisent différentes stratégies de communication, mais celles-ci ne sont pas toujours efficaces pour faciliter la communication. Toutes ces constatations mènent à des pistes de solutions visant à améliorer les situations de communication en classe et le contexte dans lequel les élèves apprennent, notamment l’accroissement des connaissances des divers acteurs et de leur collaboration entre eux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fer est un oligo-élément nécessaire pour le fonctionnement normal de toutes les cellules de l'organisme et joue un rôle essentiel dans de nombreuses fonctions biologiques. Cependant, le niveau de fer dans le corps doit être bien réglé, sinon la carence en fer entraine des divers états pathologiques tels que l'anémie et la diminution de l’immunité. D'autre part, une surcharge en fer potentialise la multiplication des germes, aggrave l’infection et la formation de radicaux libres ayant des effets toxiques sur les cellules et leurs composants, ce qui favorise les maladies cardio-vasculaires, l'inflammation et le cancer. L'hepcidine (HAMP), un régulateur négatif de l'absorption du fer, induit la dégradation de la ferroportine (FPN), le seul exportateur connu de fer ce qui réduit sa libération par les macrophages et inhibe son absorption gastro-intestinale. HAMP est synthétisé principalement par les hépatocytes, mais aussi par les macrophages. Cependant, il y a très peu de données sur la façon dont HAMP est régulé au niveau des macrophages. Plus récemment, nous avons constaté que l’induction de l’hepcidin dans le foie par le polysaccharide (LPS) est dépendante de la voie de signalisation médiée par « Toll-like receptor 4 » (TLR4). Grâce au TLR4, le LPS induit l'activation des macrophages qui sécrètent de nombreuses différentes cytokines inflammatoires, y compris Interleukine 6 (IL-6), responsable de l'expression de HAMP hépatique. Dans le premier chapitre de la présente étude, nous avons étudié la régulation de HAMP dans la lignée cellulaire macrophagique RAW264.7 et dans les macrophages péritonéaux murins stimulés par différents ligands des TLRs. Nous avons constaté que TLR2 et TLR4 par l'intermédiaire de la protéine adaptatrice « myeloid differentiation primary response gene 88 » (MyD88) activent l'expression de HAMP dans les cellules RAW264.7 et les macrophages péritonéaux sauvages murins, tandis que cette expression a été supprimée dans les macrophages isolés des souris TLR2-/-, TLR4-déficiente ou MyD88-/-. En outre, nous avons constaté que la production d'IL-6 par les cellules RAW264.7 stimulées avec du LPS a été renforcée par l’ajout des quantités élevées de fer dans le milieu de culture. Au cours de l’inflammation, le niveau de HAMP est fortement augmenté. Ainsi, lorsque l'inflammation persiste, l’expression de HAMP continue à être activée par des cytokines pro-inflammatoires conduisant à une hyposidérémie. Malgré que cette dernière soit considérée comme une défense de l'hôte pour priver les micro-organismes de fer, celle ci cause un développement d'anémies nommées anémies des maladies chroniques. Ainsi, dans le deuxième chapitre de la présente étude, nous avons étudié l'implication des TLRs et leurs protéines adaptatrices MyD88 et TIR-domain-containing adapter-inducing interferon-β (TRIF) dans le développement des hyposidérémies. En utilisant des souris déficientes en MyD88 et TRIF, nous avons montré que les voies de signalisations MyD88 et TRIF sont essentielles pour l’induction de HAMP par le LPS. Malgré l'absence de HAMP, les souris déficientes ont été capables de développer une hyposidérémie, mais la réponse des souris déficientes en MyD88 a été très légère, ce qui indique l'exigence de cette protéine pour assurer une réponse maximale au LPS. En outre, nous avons constaté que la signalisation MyD88 est nécessaire pour le stockage du fer au niveau de la rate, ainsi que l'induction de lipocaline 2 (LCN2), qui est une protéine impliquée dans la fixation du fer pour limiter la croissance bactérienne. Indépendamment de MyD88 ou TRIF, l'activation de TLR4 et TLR3 a conduit, au niveau de la rate, à une diminution rapide de l’expression de FPN et du « Human hemochromatosis protein » (HFE) qui est une protéine qui limite la séquestration du fer cellulaire à partir de la circulation. Cependant, malgré cette baisse d’expression, le manque de la signalisation MyD88 a altéré de manière significative la réponse hyposidérémique. En établissant le rôle des TLRs et de la protéine adaptatrice MyD88 dans la diminution du taux du fer sérique au cours de la réponse inflammatoire, nous avons remarqué qu’en réponse au surcharge en fer les souris déficientes en MyD88 accumulent de manière significative plus de fer hépatique par rapport aux souris sauvages, et cela indépendamment des TLRs. Ainsi, dans le troisième chapitre de la présente étude, nous avons étudié le phénotype observé chez les souris déficientes en MyD88. Nous avons trouvé que l'expression de HAMP chez ces souris a été plus faible que celle des souris de type sauvage. Pour cela, nous avons exploré la signalisation à travers la voie du « Bone Morphogenetic Proteins 6 » (BMP6) qui est considérée comme étant la voie fondamentale de la régulation de HAMP en réponse aux concentrations du fer intracellulaires et extracellulaires et nous avons trouvé que l'expression protéique de Smad4, un régulateur positif de l'expression de HAMP, est significativement plus faible chez les souris MyD88-/- par rapport aux souris sauvages. En outre, on a montré que MyD88 interagit avec « mothers against decapentaplegic, Drosophila, homolog 4 » (Smad4) et que cette interaction est essentielle pour l’induction de HAMP à travers la voie BMP6. En conclusion, notre étude montre que l'expression de HAMP dans les macrophages est régulée principalement par TLR2 et TLR4 à travers la voie MyD88 et que l'accumulation du fer dans les macrophages peut affecter les niveaux des cytokines pro-inflammatoires. En outre, nos analyses démontrent que le développement d’hyposidérémie en réponse au LPS se produit par l'intermédiaire d’un mécanisme dépendant de MyD88 qui est dissociée de la production de cytokines et de HAMP. En plus, nos recherches montrent que MyD88 est nécessaire pour l'expression de Smad4 et cela pour garantir une réponse optimale à travers la signalisation BMP6, conduisant ainsi à une expression adéquate de HAMP. Enfin, la protéine MyD88 joue un rôle crucial dans, la régulation de HAMP au niveau des macrophages, la diminution du taux du fer sérique en réponse au LPS et le maintien de l'homéostasie du fer.