983 resultados para Période Classique
Resumo:
Cette recherche porte sur le changement social dans la période postsocialiste à Cluj-« Napoca », une ville transylvaine de Roumanie. En mobilisant une approche en termes de rapports sociaux à l’espace, l’étude explore les principes de différenciation tant spatialement que socialement. Les concepts d’« espace public » et de « lieu » ont permis une analyse aux multiples facettes menée selon quatre axes : matérialité et la visibilité des espaces, sphère publique-politique, vie sociale publique, investissements et appropriations individuelles. La thèse examine ainsi les activités qui se déroulent dans les places publiques centrales, les investissements spatiaux, les rituels quotidiens et les manifestations contestataires, les multiples attachements ethniques et religieux des habitants. L’ethnographie des places publiques centrales de Cluj-« Napoca » a mis en évidence une « faible classification des espaces » centraux de la ville, traduite par une grande diversité sociale. Les marques ethnicisantes parsemées à Cluj-« Napoca » renvoient aux groupes ethniques, mais aussi à d’autres enjeux qui relèvent du processus de restructuration du champ politique dans le postsocialisme. Dans le même registre, les stratégies de type ethnique sont mobilisées pour désigner de nouveaux critères de différenciation sociale et pour redéfinir d’anciennes catégories sociales. Oublis, silences et exigences d’esthétisation reflètent des demandes implicites des habitants pour redéfinir les cadres de la politique. Finalement, la thèse montre comment l’espace public à Cluj-« Napoca » pendant la période postsocialiste relève d’un processus continuel de diversification sociale et d’invention des Autres par d’incessantes mises à distance. L’espace public n’est pas la recherche de ce que pourrait constituer le vivre ensemble, mais la quête de ce qui nous menace et qu’il faut mettre à distance.
Resumo:
Cette thèse traite de la résistance du VIH-1 aux antirétroviraux, en particulier de l'activité antivirale de plusieurs inhibiteurs non nucléosidiques de la transcriptase inverse (INNTI) ainsi que des inhibiteurs de protéase (IP). Nous avons exploré l’émergence et la spécificité des voies de mutations qui confèrent la résistance contre plusieurs nouveaux INNTI (étravirine (ETR) et rilpivirine (RPV)) (chapitres 2 et 3). En outre, le profil de résistance et le potentiel antirétroviral d'un nouvel IP, PL-100, est présenté dans les chapitres 4 et 5. Pour le premier projet, nous avons utilisé des sous-types B et non-B du VIH-1 pour sélectionner des virus résistants à ETR, et ainsi montré que ETR favorise l’émergence des mutations V90I, K101Q, E138K, V179D/E/F, Y181C, V189I, G190E, H221H/Y et M230L, et ce, en 18 semaines. Fait intéressant, E138K a été la première mutation à émerger dans la plupart des cas. Les clones viraux contenant E138K ont montré un faible niveau de résistance phénotypique à ETR (3,8 fois) et une diminution modeste de la capacité de réplication (2 fois) par rapport au virus de type sauvage. Nous avons également examiné les profils de résistance à ETR et RPV dans les virus contenant des mutations de résistance aux INNTI au début de la sélection. Dans le cas du virus de type sauvage et du virus contenant la mutation unique K103N, les premières mutations à apparaître en présence d’ETR ou de RPV ont été E138K ou E138G suivies d’autres mutations de résistance aux INNTI. À l’inverse, dans les mêmes conditions, le virus avec la mutation Y181C a évolué pour produire les mutations V179I/F ou A62V/A, mais pas E138K/G. L'ajout de mutations à la position 138 en présence de Y181C n'augmente pas les niveaux de résistance à ETR ou RPV. Nous avons également observé que la combinaison de Y181C et E138K peut conduire à un virus moins adapté par rapport au virus contenant uniquement Y181C. Sur la base de ces résultats, nous suggérons que les mutations Y181C et E138K peuvent être antagonistes. L’analyse de la résistance au PL-100 des virus de sous-type C et CRF01_AE dans les cellules en culture est décrite dans le chapitre 4. Le PL-100 sélectionne pour des mutations de résistance utilisant deux voies distinctes, l'une avec les mutations V82A et L90M et l'autre avec T80I, suivi de l’addition des mutations M46I/L, I54M, K55R, L76F, P81S et I85V. Une accumulation d'au moins trois mutations dans le rabat protéique et dans le site actif est requise dans chaque cas pour qu’un haut niveau de résistance soit atteint, ce qui démontre que le PL-100 dispose d'une barrière génétique élevée contre le développement de la résistance. Dans le chapitre 5, nous avons évalué le potentiel du PL-100 en tant qu’inhibiteur de protéase de deuxième génération. Les virus résistants au PL-100 émergent en 8-48 semaines alors qu’aucune mutation n’apparaît avec le darunavir (DRV) sur une période de 40 semaines. La modélisation moléculaire montre que la haute barrière génétique du DRV est due à de multiples interactions avec la protéase dont des liaison hydrogènes entre les groupes di-tétrahydrofuranne (THF) et les atomes d'oxygène des acides aminés A28, D29 et D30, tandis que la liaison de PL-100 est principalement basée sur des interactions polaires et hydrophobes délocalisées à travers ses groupes diphényle. Nos données suggèrent que les contacts de liaison hydrogène et le groupe di-THF dans le DRV, ainsi que le caractère hydrophobe du PL-100, contribuent à la liaison à la protéase ainsi qu’à la haute barrière génétique contre la résistance et que la refonte de la structure de PL-100 pour inclure un groupe di-THF pourrait améliorer l’activité antivirale et le profil de résistance.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Dans les élevages laitiers d’aujourd’hui, les déplacements de la caillette sont parmi les conditions chirurgicales les plus souvent rencontrées. Le pronostic pour ces pathologies est cependant très différent que l’on soit en présence d’une dilatation de la caillette à droite (DCD) ou d’un volvulus de la caillette (VC). En pratique, la distinction en période préopératoire entre ces deux conditions est difficile. Afin de limiter les pertes économiques associées aux DCD/VC, l’identification et la réforme précoce des animaux ayant le plus grand risque d’avoir une mauvaise évolution postopératoire deviennent des enjeux de premier plan. Les objectifs de cette étude étaient de déterminer la valeur pronostique de la L-lactatémie (LAC) mesurée à la ferme en préopératoire à l’aide d’un appareil portatif chez des vaches souffrant de DCD ou VC et de suggérer des seuils de LAC cliniquement significatifs. Nos résultats indiquent que la LAC est un bon indicateur pronostique lors de DCD/VC. Une LAC ≤ 2 mmol/L est un bon indicateur de succès chirurgical et s’avère très utile pour appuyer la décision d’opérer l’animal (sensibilité, spécificité, valeurs prédictives positive et négative de respectivement 76.2, 82.7, 53.3 et 93.1%). Par ailleurs, il n’y a aucun avantage économique à effectuer une chirurgie chez des vaches commerciales souffrant de DCD/VC qui ont une LAC ≥ 6 mmol/L (sensibilité, spécificité, valeurs prédictives positive et négative de respectivement 28.6, 97.5, 75 et 84%). Par conséquent, ces animaux devraient, dans la plupart des cas, être réformés en raison de la probabilité élevée qu’ils aient une mauvaise évolution postopératoire.
Resumo:
Cette recherche porte sur le langage cinématographique (ou mode de représentation) adopté par Mizoguchi en contraste avec le style classique hollywoodien. Notre hypothèse est que le refus de Mizoguchi de recourir au découpage classique et au gros-plan procurerait au spectateur une expérience de perception qui tendrait à se rapprocher de celle vécue par un spectateur de théâtre ou le témoin d’une action se déroulant dans notre monde physique. Mizoguchi a débuté son métier au début des années 1920. Le cinéma japonais venait tout juste de prendre la voie d’un art nouveau en quittant son statut de simple captation de spectacles théâtraux. L’industrie cinématographique japonaise était alors en incubation marquée par diverses influences occidentales. Nous nous pencherons plus particulièrement sur les questions stylistiques à partir du moment où le cinéma japonais s’engageait dans le parlant en imitant le style classique hollywoodien. Ce cinéma dominant devenait une norme que Mizoguchi décida de ne pas suivre pour préférer un style caractérisé par des plans-séquences. Ce style plus « neutre » et «objectif » allait être encensé par Bazin après la guerre au moment où ce dernier découvrit notamment Welles et Wyler. À partir de plusieurs extraits filmiques, nous analysons le plan-séquence mizoguchien comme substitution à une série de plans rapprochés qui se serait imposé normalement avec le style classique hollywoodien. Et ce, afin de discuter des enjeux de réalisme et de théâtralité soulevés par Bazin.
Resumo:
Cette recherche vise à décrire comment a évolué l’évaluation de la compétence à écrire dans les épreuves uniques d’écriture de 5e secondaire, en portant spécifiquement le regard sur la composante linguistique de cette compétence. Une recherche documentaire a permis de recueillir des épreuves et autres documents les concernant pour une période allant de 1971 à 2012. Bien que notre étude porte en particulier sur les épreuves uniques d’écriture, implantées en 1986, nous avons pu remonter plus loin dans le temps afin de brosser un tableau le plus large possible de l’évaluation certificative de l’écriture en 5e secondaire. Plusieurs aspects sont analysés : le contexte des épreuves, les tâches qu’elles contiennent, les paramètres encadrant leur correction, ainsi que les seuils de réussite relatifs à la langue, les épreuves entières, la compétence à écrire et la matière français, langue d’enseignement. Nous avons également pu observer, à l’échelle provinciale, l’évolution des résultats des élèves aux épreuves uniques d’écriture. À l’aide de divers concepts théoriques reliés à l’évaluation de la compétence écrire et sa composante linguistique, un cadre méthodologique a été développé pour permettre l’analyse des épreuves d’écriture. Celle-ci révèle notamment que la nature des tâches et leurs paramètres sont restés assez constants dans le temps, particulièrement depuis 1986. Le nombre d’erreurs linguistiques permises a augmenté, alors que les résultats des élèves sont restés stables. De plus, le regard historique de cette étude montre comment le ministère de l’Éducation accorde à notre époque une grande importance à l’écriture et à la correction de l’orthographe.
Resumo:
Le travail présenté dans cette thèse porte sur le rôle du cortex prémoteur dorsal (PMd) au sujet de la prise de décision (sélection d’une action parmis nombreux choix) et l'orientation visuelle des mouvements du bras. L’ouvrage décrit des expériences électrophysiologiques chez le singe éveillé (Macaca mulatta) permettant d’adresser une fraction importante des prédictions proposées par l'hypothèse des affordances concurrentes (Cisek, 2006; Cisek, 2007a). Cette hypothèse suggère que le choix de toute action est l’issue d'une concurrence entre les représentations internes des exigences et des atouts de chacune des options présentées (affordances; Gibson, 1979). Un intérêt particulier est donné au traitement de l'information spatiale et la valeur des options (expected value, EV) dans la prise de décisions. La première étude (article 1) explore la façon dont PMd reflète ces deux paramètres dans la période délai ainsi que de leur intéraction. La deuxième étude (article 2) explore le mécanisme de décision de façon plus détaillée et étend les résultats au cortex prémoteur ventral (PMv). Cette étude porte également sur la représentation spatiale et l’EV dans une perspective d'apprentissage. Dans un environnement nouveau les paramètres spatiaux des actions semblent être présents en tout temps dans PMd, malgré que la représentation de l’EV apparaît uniquement lorsque les animaux commencent à prendre des décisions éclairées au sujet de la valeur des options disponibles. La troisième étude (article 3) explore la façon dont PMd est impliqué aux “changements d'esprit“ dans un procès de décision. Cette étude décrit comment la sélection d’une action est mise à jour à la suite d'une instruction de mouvement (GO signal). I II Les résultats principaux des études sont reproduits par un modèle computationnel (Cisek, 2006) suggérant que la prise de décision entre plusieurs actions alternatives peux se faire par voie d’un mécanisme de concurrence (biased competition) qui aurait lieu dans la même région qui spécifie les actions.
Resumo:
On assiste en Géorgie, entre 1989 et 1994, à deux conflits civils couplés d’une violence politique majeure. L’Ossétie du Sud et l’Abkhazie, soit deux des trois régions dotées d’un statut autonome à l’intérieur de la Géorgie pendant la période soviétique, sont le théâtre de ces conflits. Les affrontements violents sont par ailleurs évités dans le cas de l’Adjarie, cette troisième région dotée d’un statut autonome. Les raisons de cette relative paix adjar ne sont pas évidentes à saisir à prime abord, surtout lorsqu’on observe la situation chaotique dans laquelle se trouve la Géorgie au moment de la chute de l’URSS. Il apparaît ainsi adéquat de se pencher plus spécifiquement sur l’Adjarie, en tant que région de la Géorgie, qui a certes entretenu de fortes tensions avec l’État géorgien nouvellement indépendant, mais sans pour autant que ces tensions politiques ne basculent en un conflit ouvert. Étant donné la similarité qui caractérise les territoires de l’Abkhazie et de l’Adjarie, les arguments géopolitiques ou encore les arguments concernant les structures institutionnelles n’apportent qu’une explication partielle. C’est plutôt un argument identitaire mettant de l’avant la relation entre les groupes qui apparaît déterminant pour expliquer l’absence de conflit en Adjarie.
Resumo:
La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-delà de 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.
Resumo:
L’eugénol permet d’induire une anesthésie chirurgicale chez la grenouille africaine à griffes (Xenopus laevis) sans causer de lésions chez des grosses grenouilles (90-140g). Le premier objectif de la présente étude était de déterminer la durée de l’anesthésie et d’évaluer la dépression du système nerveux central ainsi que les changements de saturation en oxygène et de fréquence cardiaque chez des petites (7.5 ± 2.1 g) et moyennes (29.2 ± 7.4 g) grenouilles Xenopus laevis en fonction du temps d’exposition à un bain d’eugénol de 350 µL/L. Suite à une immersion de 5 ou 10 minutes, la réponse au test à l’acide acétique, au réflexe de retrait et au réflexe de retournement était absente pendant 1 heure (petites grenouilles) et 0,5 heure (moyennes) et l’anesthésie chirurgicale durait au maximum 15 et 30 minutes chez les petites et moyennes grenouilles respectivement. La saturation en oxygène n’était pas affectée de façon significative, mais la fréquence cardiaque était diminuée jusqu’à 1 heure post-immersion dans les deux groupes. Le deuxième objectif était de déterminer la toxicité de l’eugénol chez des grenouilles de taille moyenne après une ou trois administrations à une dose anesthésique, avec ou sans période de récupération d’une semaine. Histologiquement, il y avait de l’apoptose tubulaire rénale et des membranes hyalines pulmonaires après une administration, et de la nécrose hépatique et des hémorragies dans les tissus adipeux après trois administrations. Ces résultats suggèrent que le poids corporel est un paramètre important à considérer lors de l’anesthésie de grenouilles Xenopus laevis par immersion dans l’eugénol.
Resumo:
Ce mémoire a pour objectif général de définir et de caractériser les présences amérindiennes sur l’île de Montréal au cours de la période s’échelonnant du Sylvicole supérieur à la fin du XVIIe siècle ainsi que de tenter de comprendre le rôle qu’exerça le mont Royal dans ce contexte. En nous appuyant sur des théories de l’archéologie du paysage, nous avons étudié la création consciente et inconsciente de paysages et la manière par laquelle ces lieux ont façonné les comportements et les identités de leurs occupants. Grâce à la continuité d’activités répétitives, liées au concept de taskscape, nous avons tenté d’y établir un modèle de trame d’occupation reflétant une utilisation dynamique et stratégique du paysage face aux politiques coloniales. La démarche adoptée est celle d’une approche holistique s’appuyant à la fois sur des données archéologiques, historiques, ethnohistoriques et ethnographiques émanant des rapports de fouilles archéologiques, des traditions orales et des différents documents coloniaux datant des XVIe, XVIIe et XVIIIe siècles. Cette étude a permis de déterminer différentes zones associées à des perceptions différentes du paysage reflétant une stratégie de continuité dans la conceptualisation, l’organisation et la manipulation de l’espace à la suite de l’appropriation des terres par le gouvernement colonial.
Resumo:
Le vieillissement de la main-d’œuvre canadienne entraîne diverses conséquences sur le marché du travail et sur les parcours de fin de vie active. C’est pourquoi cette recherche s’intéresse à la problématique des fins d’emploi de carrière et du passage vers un emploi de transition vers la retraite. À l’aide des données longitudinales de l’Enquête sur la dynamique du travail et du revenu de 2002 à 2007, l’objectif est de mener une analyse descriptive de cette trajectoire selon la profession, ce qui ne semble jamais avoir été fait dans la littérature canadienne. Les résultats montrent que certaines professions ont enregistré proportionnellement plus de fins d’emploi de carrière durant cette période, dont les enseignants et les occupants d’un poste de direction. Des analyses supplémentaires ont calculé la part des travailleurs ayant effectué leur transition dans une profession différente.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca)
Resumo:
La thymectomie est un geste chirurgical fréquemment nécessaire lors des interventions cardiaques en période néonatale. Il est connu que la résection du thymus entraîne une lymphopénie ne semblant pas avoir de conséquences cliniques graves. La lymphopénie constatée serait plus importante chez les patients ayant eu une chirurgie cardiaque de type Fontan. Toutefois, on ignore si la lymphopénie est uniquement secondaire à la thymectomie ou si elle est liée à ce type particulier de chirurgie cardiaque. La présente recherche porte sur 19 patients opérés selon l'approche Fontan; ils ont été comparés à 6 patients "contrôle" ayant eu une thymectomie au cours d'une chirurgie cardiaque d'un autre type. Les résultats indiquent que les patients de type Fontan accusent une diminution du nombre de cellules naïves CD4+ et CD8+ et plus particulièrement une baisse de leurs émigrants thymiques (CD45RA+CD31+/CD4+). On note en contrepartie une expansion du répertoire mémoire (CD45RO+). Ces altérations lymphocytaires sont comparables aux contrôles. Il semble donc que les anomalies lymphocytaires relevées soient reliées principalement à la thymectomie et non pas au type de chirurgie. Les infections plus importantes chez les Fontan, quant à elles, pourraient s'expliquer par une évolution post-opératoire défavorable.