944 resultados para Évolution biologique et technique
Resumo:
Depuis quelques années, plusieurs didacticiens du français se penchent sur l’enseignement et l’évaluation de l’oral, mais peu d’informations sont encore disponibles concernant les pratiques effectives des enseignants à cet égard. Notre recherche vise à décrire les croyances de deux enseignants de français au secondaire et leurs pratiques au sujet de l’évaluation de l’oral, plus particulièrement de l’oral dans une situation d’interaction entre pairs. Une entrevue dirigée a permis d’avoir accès à leurs croyances et à leurs pratiques déclarées, alors que le think-aloud a été employé pour observer leur pratique d’évaluation, à l’étape du jugement, d’une situation d’interaction entre pairs. Nos résultats montrent que, du point de vue de leurs croyances, les enseignants ont tous deux des préoccupations concernant les tâches et les instruments d’évaluation, et que leurs pratiques d’évaluation déclarées sont assez semblables en ce qui a trait aux tâches retenues, à leur fréquence et à l’intention poursuivie. Du côté de leurs pratiques d’évaluation observées à l’étape du jugement, nous exposons de façon détaillée les gestes d’enseignants en situation authentique, en identifiant les principaux processus cognitifs et métacognitifs impliqués dans cette tâche complexe. Des divergences entre les deux enseignants ont été observées relativement à leurs croyances, pratiques déclarées et pratiques observées durant le jugement. Tout d’abord, les critères retenus pour l’évaluation (pratique déclarée) ne tiennent pas toujours compte de ce qu’ils croient important d’enseigner en classe (croyance). De plus, malgré une pratique déclarée positive concernant l’autoévaluation, ces enseignants n’y ont peu ou pas eu recours durant leur jugement. Enfin, les gestes de l’un, durant le jugement, tendaient vers la posture d’instructeur-contrôleur, alors que ceux de l’autre s’inscrivaient davantage dans la posture de conseiller-didacticien. De façon générale, nous constatons que les pratiques de ces enseignants sont plus influencées par les situations rencontrées en tant qu’élèves et les traditions d’enseignement de la discipline que par le programme en vigueur.
Resumo:
Il existe un lien étroit entre la structure tridimensionnelle et la fonction cellulaire de l’ARN. Il est donc essentiel d’effectuer des études structurales de molécules d’ARN telles que les riborégulateurs afin de mieux caractériser leurs mécanismes d’action. Une technique de choix, permettant d’obtenir de l’information structurale sur les molécules d’ARN est la spectroscopie RMN. Cette technique est toutefois limitée par deux difficultés majeures. Premièrement, la préparation d’une quantité d’ARN nécessaire à ce type d’étude est un processus long et ardu. Afin de résoudre ce problème, notre laboratoire a développé une technique rapide de purification des ARN par affinité, utilisant une étiquette ARiBo. La deuxième difficulté provient du grand recouvrement des signaux présents sur les spectres RMN de molécules d’ARN. Ce recouvrement est proportionnel à la taille de la molécule étudiée, rendant la détermination de structures d’ARN de plus de 15 kDa extrêmement complexe. La solution émergeante à ce problème est le marquage isotopique spécifique des ARN. Cependant, les protocoles élaborées jusqu’à maintenant sont très coûteux, requièrent plusieurs semaines de manipulation en laboratoire et procurent de faibles rendements. Ce mémoire présente une nouvelle stratégie de marquage isotopique spécifique d’ARN fonctionnels basée sur la purification par affinité ARiBo. Cette approche comprend la séparation et la purification de nucléotides marqués, une ligation enzymatique sur support solide, ainsi que la purification d’ARN par affinité sans restriction de séquence. La nouvelle stratégie développée permet un marquage isotopique rapide et efficace d’ARN fonctionnels et devrait faciliter la détermination de structures d’ARN de grandes tailles par spectroscopie RMN.
Resumo:
Le projet Observatoire des Agricultures du Monde (OAM, CIRAD/FAO) vise à construire un observatoire mondial permettant de donner des informations sur les agricultures des différents pays ainsi que sur leurs évolutions. A l’heure actuelle, cinq pays ont été choisis comme pays pilotes, dont Madagascar ou la zone d’étude retenue est le lac Alaotra. L’étude replace les notions de vulnérabilité, résilience, durabilité et viabilité au niveau de l’exploitation agricole et montre la nécessité de sélectionner et calculer quelques indicateurs clés nécessaires à la construction de l’observatoire. La base de données retenue dans le cadre de cette étude est celle du Réseau des Observatoires Ruraux (ROR). Les résultats montrent une résilience globale des exploitations agricoles très forte liée à une forte diversification des activités agricoles et non agricoles et à des pratiques innovantes progressives permettant de diluer le risque lie au changement technique.
Resumo:
Les dyskinésies tardives (DT) sont des troubles moteurs associés à l’utilisation chronique des antagonistes des récepteurs dopaminergiques D2 tels que les antipsychotiques et le métoclopramide. Ces dyskinésies correspondent à une incoordination motrice portant préférentiellement sur la musculature oro-faciale. La gestion des DT s'est imposée comme défi de santé publique surtout en l’absence d’une alternative thérapeutique efficace et abordable. L’hypothèse classiquement avancée pour expliquer la physiopathologie des DT inhérente au traitement par les antipsychotiques s’articule autour de l’hypersensibilité des récepteurs dopaminergiques D2, cibles principales de ces molécules. Néanmoins, plusieurs données remettent la véracité de cette hypothèse en question. Hypothèse: nous proposons que le blocage chronique des récepteurs dopaminergiques soit effectivement responsable d’un phénomène d’hypersensibilisation mais contrairement à l’hypothèse classique, cette hypersensibilisation porterait sur des paramètres de la transmission dopaminergique autres que les récepteurs D2. De même nous postulons que cette hypersensibilisation se traduirait par des altérations des cascades signalétiques au niveau des cellules du striatum. Ces altérations aboutissent à des changements portant sur le récepteur nucléaire (Nur77), qui est hautement associé au système dopaminergique; l’induction de ces récepteurs déclencherait des cascades associées à la compensation ou à la genèse des DT. Matériels et méthodes: 23 femelles Cebus apella, réparties en 3 groupes: groupe halopéridol, groupe clozapine, et groupe contrôle, ont été exposées aux traitements respectifs pendant 6-36 mois. Après l’analyse comportementale, les animaux ont été décapités et leurs cerveaux isolés pour fin d’analyse. Hybridation in situ: nous avons fait appel à cette technique pour mesurer l’expression de l’ARNm de Nur77 et du neuropeptide enképhaline. Hybridation in situ double: nous avons exploités cette technique pour identifier les populations neuronales exprimant les récepteurs dopaminergiques D3 et localiser leur éventuelle induction. Autoradiographies des récepteurs dopaminergiques D1, D2 et D3 et autoradiographies des récepteurs i glutamatergiques mGluR5. Ces autoradiographies avaient pour objectif d’évaluer l’expression de ces différents récepteurs. Mutagenèse dirigée et transfection cellulaire: nous faisons appel à ces techniques pour reproduire le polymorphisme identifié au niveau de la région 3’UTR de l’ARNm Nur77 et évaluer l’impact que pourrait avoir ce polymorphisme sur la stabilité de l’ARNm Nur77 sinon sur l’expression de la protèine Nur77. Western Blot des kinases ERK 1 et 2: cette technique nous a servi comme moyen pour quantifier l’expression globale de ces kinases. Analyses statistiques: l’expression de l’ARNm Nur77 a été évaluée en utilisant l’analyse de la variance à un seul facteur (One way ANOVA). Nous avons procédé de la même façon pour mesurer l’expression des récepteurs D2, D3 et mGluR5. Résultats: le groupe des animaux traités par l’halopéridol montre une plus forte expression des récepteurs D3 par rapport aux sujets des autres groupes. Cette expression se produit au niveau des neurones de la voie directe. De plus, cette augmentation corrèle positivement avec la sévérité des DT. L’expression des récepteurs D2 et mGluR5 reste relativement inchangée entre les différents groupes, alors qu’un gradient d’expression a été observé pour le récepteur D1. Par ailleurs, Nur77 est induit par l’halopéridol, alors que son expression semble baisser chez les animaux traités par la clozapine. L’induction de l’expression de Nur77 par l’halopéridol est plus accrue chez les animaux non dyskinétiques. Les animaux traités par la clozapine démontrent une expression amoindrie de l’ARNm de Nur77 qui tend à être plus faible que l’expression de base. D’autre part, la présence du polymorphisme au niveau de la région 3’UTR semble affecter l’expression cellulaire de Nur77. Conclusion: ces résultats confortent notre hypothèse concernant l’existence d’un phénomène d’hypersensibilisation prenant place suite un traitement chronique par les antipsychotiques. Ce phénomène s’est traduit par une augmentation de l’expression des récepteurs D3 sans porter sur les récepteurs D2 tel que prôné classiquement. Cette hypersensibilisation des récepteurs D3 implique également l’existence d’un débalancement des voies striatales pouvant ainsi sous tendre l’apparition des DT. Ces résultats dévoilent ainsi un nouveau mécanisme qui pourrait contribuer à l’apparition des DT et pourraient permettre une meilleure gestion, nous l’espérons, des DT à l’échelle clinique.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
La duplication est un des évènements évolutifs les plus importants, car elle peut mener à la création de nouvelles fonctions géniques. Durant leur évolution, les génomes sont aussi affectés par des inversions, des translocations (incluant des fusions et fissions de chromosomes), des transpositions et des délétions. L'étude de l'évolution des génomes est importante, notamment pour mieux comprendre les mécanismes biologiques impliqués, les types d'évènements qui sont les plus fréquents et quels étaient les contenus en gènes des espèces ancestrales. Afin d'analyser ces différents aspects de l'évolution des génomes, des algorithmes efficaces doivent être créés pour inférer des génomes ancestraux, des histoires évolutives, des relations d'homologies et pour calculer les distances entre les génomes. Dans cette thèse, quatre projets reliés à l'étude et à l'analyse de l'évolution des génomes sont présentés : 1) Nous proposons deux algorithmes pour résoudre des problèmes reliés à la duplication de génome entier : un qui généralise le problème du genome halving aux pertes de gènes et un qui permet de calculer la double distance avec pertes. 2) Nous présentons une nouvelle méthode pour l'inférence d'histoires évolutives de groupes de gènes orthologues répétés en tandem. 3) Nous proposons une nouvelle approche basée sur la théorie des graphes pour inférer des gènes in-paralogues qui considère simultanément l'information provenant de différentes espèces afin de faire de meilleures prédictions. 4) Nous présentons une étude de l'histoire évolutive des gènes d'ARN de transfert chez 50 souches de Bacillus.
Resumo:
La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.
Resumo:
Ce mémoire est consacré aux œuvres de fiction de la cinéaste Paule Baillargeon. Il s'agit d'examiner le processus de subjectivation, en retraçant son parcours cinématographique par l'entremise de ses longs métrages de fiction, et de voir comment elle utilise le langage cinématographique de façon singulière en permettant une prise de parole alternative devant et derrière la caméra. Alors que le cinéma dominant persiste à catégoriser les œuvres des réalisatrices québécoises de "films de femmes" ou de "cinéma de femmes", un bref survol de l'évolution générale des femmes en fiction, et de l'expérience de Baillargeon en particulier, permet de rendre compte des difficultés d'accessibilité qui persistent pour elles dans ce secteur d'activités. Par la suite, l'analyse des quatre principales œuvres de la réalisatrice - Anastasie oh ma chérie (1977), La cuisine rouge (1980), Le sexe des étoiles (1993), Trente tableaux (2011) - témoigne de la nécessité de cette prise de parole alternative, mais aussi de l'interaction entre chacun des films et une théorie féministe spécifique, issue entre autres des travaux de Luce Irigaray et Judith Butler.
Resumo:
La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.
Resumo:
Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.
Resumo:
Plusieurs recherches sont effectuées sur la laitue commercialisée (Lactuca sativa L.), afin d’améliorer sa résistance aux ravageurs. L’objectif de cette étude est d’examiner les impacts de la résistance de la laitue sur le puceron de la laitue, Nasonovia ribisnigri (Mosley) (Hemiptera : Aphididae) et son parasitoïde, Aphidius ervi Haliday (Hymenoptera: Braconidae). La résistance de la laitue affecte négativement la valeur adaptative du puceron en augmentant sa mortalité et son temps de développement et en diminuant sa fécondité, sa taille et son poids. Cet impact sur la valeur adaptative du puceron affecte aussi négativement le parasitoïde qui s'y développe en diminuant le pourcentage d’émergence, la taille et le poids des adultes, et en diminuant la fécondité des femelles. La femelle parasitoïde estime de manière absolue la qualité de ses hôtes puisqu’elle peut discriminer entre des hôtes de bonne et de faible qualité, sans expérience préalable. L’acceptation des hôtes de bonne qualité est similaire lorsqu’ils sont présentés successivement à la femelle; l’estimation de la valeur des hôtes est donc adéquate dès la première rencontre. Cependant, cet estimé absolu est modifié par l'expérience, puisque la femelle peut changer son exploitation selon la qualité des agrégats rencontrés. Lorsque des hôtes de basse qualité sont présentés successivement, l’acceptation de la femelle augmente. Accepter des hôtes de mauvaise qualité pour l’oviposition peut être préférable que de risquer de ne pas pondre tous ses œufs. L’utilisation d’une estimation absolue et relative par A. ervi peut mener à une exploitation optimale des agrégats.
Resumo:
Ce projet de recherche est consacré à l’analyse des politiques sociales qui entourent les violences sexuelles envers les femmes. La visibilité de la violence sexuelle est récente. En dénonçant à la fin des années 1960, les violences sexuelles comme symbole de l'oppression des femmes, le mouvement féministe a été à l'origine de la reconnaissance par les politiques de ce « phénomène » comme une problématique sociale importante et d’intérêt public. L'étude est centrée sur le cas de la France depuis les années 1960 ; de l’émergence du problème social de la violence sexuelle à la formulation des plans gouvernementaux depuis 2005. Il s'agit d'analyser l'évolution du discours public sur les violences sexuelles au fil du temps et les réponses sociales offertes. Cette étude s’articule autour de deux préoccupations : la première est de comprendre comment s’est construite la question de la violence sexuelle, la seconde concerne l’analyse des politiques actuelles qui émanent de cette évolution. Pour comprendre ces questionnements, nous avons utilisé une méthode qualitative s’inspirant principalement de la méthode d’analyse documentaire. Nous avons procédé à l’analyse des différents plans d’actions gouvernementaux mis en place depuis 2005 et des écrits ministériels et scientifiques portant sur la problématique des violences sexuelles. Partant de ce matériel, d’autres documents sont utilisés afin de cerner le contexte historique et actuel. On retrouve par exemple les auteurs qui ont retracés l’histoire de cette problématique à travers les siècles mais aussi les enquêtes sociologiques, qui ont contribué à évaluer l’ampleur du phénomène, ou la revue de presse, qui aide à mieux comprendre les enjeux d’aujourd’hui. Cette recherche s’inscrit principalement dans le courant théorique constructiviste développé par Spector et Kitsuse (1977), repris et explicité par Loseke dans son livre Thinking about social problem (2003). Enfin, un recours à la comparaison internationale par l’exemple du Québec nous a permis d’éclairer certaines particularités françaises.
Resumo:
Les travaux effectués dans le cadre de cette thèse de doctorat avaient pour but de mettre au point des nouvelles formulations d’antifongiques sous forme de nanoparticules polymériques (NP) en vue d’améliorer l’efficacité et la spécificité des traitements antifongiques sur des souches sensibles ou résistantes de Candida spp, d’Aspergillus spp et des souches de Candida albicans formant du biofilm. Dans la première partie de ce travail, nous avons synthétisé et caractérisé un polymère à base de polyester-co-polyéther branché avec du poly(éthylène glycol) (PEG-g-PLA). En plus d’être original et innovant, ce co-polymère a l’avantage d’être non-toxique et de posséder des caractéristiques de libération prolongée. Trois antifongiques couramment utilisés en clinique et présentant une biodisponibilité non optimale ont été choisis, soient deux azolés, le voriconazole (VRZ) et l’itraconazole (ITZ) et un polyène, l’amphotéricine B (AMB). Ces principes actifs (PA), en plus des problèmes d’administration, présentent aussi d’importants problèmes de toxicité. Des NP polymériques encapsulant ces PA ont été préparées par une technique d’émulsion huile-dans-l’eau (H/E) suivie d’évaporation de solvant. Une fois fabriquées, les NP ont été caractérisées et des particules de d’environ 200 nm de diamètre ont été obtenues. Les NP ont été conçues pour avoir une structure coeur/couronne avec un coeur constitué de polymère hydrophobe (PLA) et une couronne hydrophile de PEG. Une faible efficacité de chargement (1,3% m/m) a été obtenue pour la formulation VRZ encapsulé dans des NP (NP/VRZ). Toutefois, la formulation AMB encapsulée dans des NP (NP/AMB) a montré des taux de chargement satisfaisants (25,3% m/m). En effet, le caractère hydrophobe du PLA a assuré une bonne affinité avec les PA hydrophobes, particulièrement l’AMB qui est le plus hydrophobe des agents sélectionnés. Les études de libération contrôlée ont montré un relargage des PA sur plusieurs jours. La formulation NP/AMB a été testée sur un impacteur en cascade, un modèle in vitro de poumon et a permis de démontrer le potentiel de cette formulation à être administrée efficacement par voie pulmonaire. En effet, les résultats sur l’impacteur en cascade ont montré que la majorité de la formulation s’est retrouvée à l’étage de collecte correspondant au niveau bronchique, endroit où se situent majoritairement les infections fongiques pulmonaires. Dans la deuxième partie de ces travaux, nous avons testé les nouvelles formulations d’antifongiques sur des souches planctoniques de Candida spp., d’Aspergillus spp. et des souches de Candida albicans formant du biofilm selon les procédures standardisées du National Committee for Clinical Laboratory Standards (NCCLS). Les souches choisies ont démontré des résistances aux azolés et aux polyènes. Les études d’efficacité in vitro ont permis de prouver hors de tout doute que les nouvelles formulations offrent une efficacité nettement améliorée comparée à l’agent antifongique libre. Pour mettre en lumière si l’amélioration de l’efficacité antifongique était due à une internalisation des NP, nous avons évalué le comportement des NP avec les cellules de champignons. Nous avons procédé à des études qualitatives de microscopie de fluorescence sur des NP marquées avec de la rhodamine (Rh). Tel qu’attendu, les NP ont montré une localisation intracellulaire. Pour exclure la possibilité d’une simple adhésion des NP à la surface des levures, nous avons aussi confirmé leur internalisation en microscopie confocale de fluorescence. Il est important de noter que peu d’études à ce jour ont mis l’accent sur l’élaboration de nouvelles formulations d’antifongiques à base de polymères non toxiques destinées aux traitements des mycoses, donnant ainsi une grande valeur et originalité aux travaux effectués dans cette thèse. Les résultats probants obtenus ouvrent la voie vers une nouvelle approche pour contourner les problèmes de résistances fongiques, un problème de plus en plus important dans le domaine de l’infectiologie.
Resumo:
Introduction : Cette thèse est constituée de trois articles liés les uns aux autres. Le premier s’attache à clarifier les perspectives théoriques et problèmes conceptuels entourant la notion de capacité/incapacité au travail, sa définition et son évolution au fil du temps. Les deuxième et troisième articles visent à évaluer les effets différentiels selon le genre de déterminants du retour au travail (RAT) et de la durée d’indemnisation ainsi que les coûts associés, dans une population de travailleurs indemnisés à long terme pour troubles musculosquelettiques (TMS). Méthodes : Dans le premier article, une revue systématique des définitions de l’(in)capacité au travail et une analyse comparative basée sur la théorisation ancrée débouchent sur une carte conceptuelle intégrative. Dans le second article, une cohorte de 455 adultes en incapacité à long terme pour TMS au dos/cou/membres supérieurs est suivie cinq ans au travers d’entretiens structurés et de données d’indemnisation. Des modèles de Cox stratifiés par genre ont été utilisés pour évaluer la durée jusqu’au premier RAT. Dans le troisième article, une cohorte populationnelle de 13,073 hommes et 9032 femmes en incapacité prolongée pour TMS au dos/cou/membres supérieurs a été suivie pendant trois ans à l’aide de données administratives. Des modèles de Cox stratifiés par genre ont été utilisés pour étudier la durée d’indemnisation et détecter les effets dépendants du temps. Les coûts ont également été examinés. Résultats : Les définitions analysées dans la première étude ne reflètent pas une vision intégrée et partagée de l’(in)capacité au travail. Cependant, un consensus relatif semble émerger qu’il s’agit d’un concept relationnel, résultant de l’interaction de multiples dimensions aux niveaux individuel, organisationnel et sociétal. La seconde étude montre que malgré des courbes de survie jusqu’au RAT similaires entre hommes et femmes (p =0.920), plusieurs déterminants diffèrent selon le genre. Les femmes plus âgées (HR=0.734, par tranches de 10 ans), d’un statut économique perçu comme pauvre (HR=0.625), travaillant ≥40 heures/semaine en ayant des personnes à charge (HR=0.508) et ne connaissant pas l’existence d’un programme de santé et sécurité sur leur lieu de travail (HR=0.598) retournent moins vite au travail, tandis qu’un revenu brut annuel plus élevé (par $10,000) est un facteur facilitant (HR=1.225). Les hommes de plus de 55 ans (HR=0.458), au statut économique perçu comme pauvre (HR=0.653), travaillant ≥40 heures/semaine avec une charge de travail physique perçue élevée (HR=0.720) et une plus grande précarité d’emploi (HR=0.825) retournent moins rapidement au travail. La troisième étude a révélé que trois ans après la lésion, 12.3% des hommes et 7.3% des femmes étaient encore indemnisés, avec un ratio de coûts homme-femme pour l’ensemble des réclamations de 2.1 :1. L’effet de certain prédicteurs (e.g. revenu, siège de lésion, industrie) varie selon le genre. De plus, l’effet de l’âge chez les hommes et l’effet de l’historique d’indemnisation chez les femmes varient dans le temps. Conclusion : La façon de définir l’(in)capacité au travail a des implications importantes pour la recherche, l’indemnisation et la réadaptation. Les résultats confirment également la pertinence d’investiguer les déterminants du RAT et de l’indemnisation selon le genre.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.