419 resultados para Espace asymétrique
Resumo:
XerC et XerD, deux recombinases impliquées dans la recombinaison site spécifique, résolvent les multimères d’ADN en monomères. Cette réaction se produit au niveau du site dif du chromosome, et nécessite le domaine C-terminale de la protéine de division cellulaire FtsK. Caulobacter crescentus est une bactérie aquatique de type Gram-négative qui se retrouve dans plusieurs environnements. Elle présente un cycle cellulaire asymétrique avec deux types de cellules distinctes. Cette propriété peut être utilisée pour synchroniser la croissance d’une population bactérienne pour permettre l’étude de l’expression de gènes à travers le temps et les liens entre le cycle cellulaire et le développement de la bactérie. La liaison à l’ADN et la capacité de former des complexes covalents (phosphotyrosyl) avec le site dif de C. crescentus (ccdif) ont été testé pour les recombinases de C. crescentus (ccXerC et ccXerD). Les deux recombinases ont eu une meilleure liaison au demi-site gauche de ccdif et sont incapable d’effectuer une liaison coopérative, contrairement à ce qui se produit au niveau du site dif de E. coli. La formation de complexes covalents a été testé en utilisant des «substrats suicides avec bris» marqués à la fluorescence ainsi que des protéines de fusion (marquées ou non à la fluorescence). Des complexes ADN-protéines résistants à la chaleur et au SDS ont été observé lors de la réaction de ccXerC et ccXerD de type sauvage avec ccdif, mais pas lors de la réaction de mutants avec le même ADN. Des complexes covalents phosphotyrosine sont formés de façon plus efficace sur les substrats suicides avec un bris au niveau du brin supérieur que ceux ayant un bris au niveau du brin inférieur. Dans les deux cas, c’est ccXerC qui est resté lié de façon covalente à l’ADN de ccdif.
Resumo:
L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).
Resumo:
Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.
Resumo:
De 2005 à 2007, le Ministère du Développement social de l’Uruguay a mis en oeuvre le Plan d’aide nationale à l’urgence sociale (PANES). Parmi les résultats les plus notables que les évaluations ont fournis, citons la dénaturation de certains phénomènes socioculturels fortement enracinés : la violence conjugale, l’immobilité sociale et l’analphabétisme des adultes. Le fait de considérer ces phénomènes comme acceptables prouve l’existence de mécanismes générateurs de préférences irrationnelles ou adaptatives. Quels ont été les processus qui ont contribué à dénaturer ces préférences ? L’évaluation du PANES semble indiquer que l’une des voies a été la participation à des groupes de promotion et d’échange. Ces résultats font écho à la littérature philosophique croissante qui porte sur l’importance de la délibération et de la participation en ce qui concerne le développement de capacités et d’autonomie. Voici donc notre hypothèse de travail : les instances de participation qui entraînent une délibération publique peuvent conduire à la dénaturation de certaines pratiques qui restreignent l’autonomie personnelle, par le biais de la constitution d’une agence cognitive intersubjective. Cette agence comporte trois aspects : a) elle sous-tend l’élargissement d’un « espace à soi » chez le sujet ; b) elle établit une distance réflexive qui permet de revoir des préférences et de reconstruire des niveaux d’estime de soi, de respect de soi et de confiance en soi, etc.) c) elle fait office de sous-produit d’activités établies à d’autres fins.
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
Cette recherche s’intéresse au soutien à domicile des personnes âgées dites « en perte d’autonomie » dans un contexte où, d’une part, les inégalités socioéconomiques parmi ce groupe sont marquées et, d’autre part, les services à domicile tendent vers une standardisation et une marchandisation. L’autonomie a été mobilisée comme concept pour mieux appréhender les conditions de vie et les rapports sociaux qui nuisent ou contribuent au bien-être des aînés à domicile, de leur propre point de vue et de celui des auxiliaires familiaux et sociaux qui interviennent auprès d’eux. Ce groupe d’acteurs est généralement évoqué dans la littérature comme ayant une vision sociale et globale des personnes qu’ils visitent, de par leur proximité et intrusion dans l’espace de vie de ces dernières. Le discours dominant par rapport au bien-être des personnes âgées (bien-vieillir ou, en anglais, successful aging) dans la littérature en gérontologie ou dans les documents institutionnels s’articule autour d’une conception fonctionnelle de l’autonomie, au détriment des dimensions plus sociales et relationnelles. Cette recherche a ainsi cherché à investir une perspective sociorelationnelle de l’autonomie, qui se retrouve en sciences sociales chez des auteurs tels que Druhle, Sen, McAll, Honneth, Guillemard et Castoriadis. Ce cadre conceptuel au cœur duquel se trouvent notamment les notions de reconnaissance et de rapports sociaux inégalitaires a servi de porte d’entrée pour analyser 10 entrevues semi-dirigées avec des auxiliaires familiaux et sociaux (qui ont évoqué, chacun, la situation des trois dernières personnes visitées, pour un total de 30 exemples de cas) et 14 entrevues semi-dirigées avec des personnes âgées recevant des services à domicile. Au croisement de ces regards, les résultats de cette recherche suggèrent que les conditions de vie matérielles et relationnelles ont un impact déterminant sur la possibilité pour les aînés de « se sentir vivants » et que pour les personnes les plus défavorisées et/ou isolées, le soutien à domicile se traduit le plus souvent en une situation de « confinement », de « maintien » à domicile. Par rapport à la relation avec les auxiliaires, il apparaît que l’amélioration du bien-être des aînés recevant de l’aide à domicile passe, entre autres, par la création d’un espace relationnel autonome dans lequel la personne existe non seulement comme « corps », mais également comme « esprit ». Par-delà des services offerts, c’est ce type d’interaction (attentif et respectueux des habitudes, intentions et projets qui ont rempli la vie des personnes aidées) qui retient le plus leur attention et mobilise l’essentiel de leur discours sur le soutien à domicile. Il semble également que ce soit parfois en se faisant marginal dans la vie des gens et en créant simplement des espaces favorables à une autonomie collective que le réseau de services peut avoir les impacts les plus positifs sur les personnes, de leur propre point de vue.
Resumo:
Rédigés de manière non linéaire, "Monsieur Teste" (1946) de Paul Valéry et "Palomar" (1983) d’Italo Calvino posent les limites de l’intellection pure et les possibilités du texte littéraire à rendre compte d’une conscience, celle des sujets – Teste et Palomar – , comme les témoins réfléchis des phénomènes de l’univers. Bien qu’issus d’époques et de mouvements littéraires différents (poésie moderne française de l’entre-deux guerre chez Valéry, le néoréalisme italien chez Calvino) les deux auteurs parviennent néanmoins à une écriture comparable, qui valorise l’éclatement formel des catégories romanesques conventionnelles (intrigue, espace, temps, personnage) vers un nouveau réalisme, plus libre et moins contraignant. Que ce soit par le récit composites "Monsieur Teste" où Valéry met en scène Teste, un homme taciturne et solitaire vivant de l’intérieur, ou encore "Palomar" dont le protagoniste décide, un beau jour, d’arpenter du regard la moindre parcelle de l’univers, un élément demeure constant : le fragment, comme manière d’appréhender et de comprendre le monde et, par ricochet, de se saisir soir-même. L’analyse des incidences littéraires du fragment nous permettra d’interroger et de mettre en lumière, en les comparant, l’écriture fragmentaire de "Monsieur Teste" et "Palomar" comme la création d’une structure textuelle, mais aussi comme une forme donnant vie à un contenu : la pensée prenant conscience de ses actes.
Resumo:
Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.
Resumo:
Nous allons exposer dans ce mémoire divers résultats sur l’universalité en analyse complexe. Nous énoncerons d’abord des résultats généraux sur les séries universelles, puis sur un type d’universalité dû à Fournier et Nestoridis qui établit un lien nouveau entre l’universalité et la non-normalité d’une famille de fonctions. Par la suite, nous introduirons un type différent de séries universelles obtenues en réarrangeant les termes de séries arbitraires. Nous prouverons dans ce mémoire la généricité algébrique de ce type de séries universelles pour tout espace de Banach et la généricité topologique dans les espaces de dimension finie. Aussi, nous démontrerons que pour toute série universelle par réarrangement il existe un réarrangement de ses termes pour lequel cette série devient universelle au sens usuel.
Resumo:
L’aménagement du territoire est le résultat de différents processus économiques, politiques, sociaux, culturels et environnementaux. Le territoire peut être vu de différentes manières et reflète les visions et les intérêts des acteurs qui le construisent. L'objectif principal de cette thèse consiste à explorer les dynamiques qui soutiennent l'aménagement de Bogota, capitale de la Colombie, et d’une municipalité avoisinant Soacha. L'analyse se concentre sur trois aspects qui correspondent aux objectifs spécifiques de cette étude : les récentes politiques publiques d'aménagement du territoire qui régissent la zone étudiée, le rôle des acteurs sociaux et les relations urbano-rurales créées dans ce nouveau contexte. La thèse souligne des éléments contextuels qui servent à comprendre les transformations récentes de Bogota et de Soacha dans leurs implications spatiales. Différents processus ont apparus dans la nouvelle géographie de cette région, y compris la mondialisation, les transformations économiques, les nouvelles lois relatives à l'aménagement du territoire, les nouvelles formes de participation, ainsi que les décisions des administrations municipales qui ont contribué à établir ce nouvel ordre. Les éléments théoriques traitées dans cette étude privilégient deux perspectives ou visions du territoire : 1) celle utilisée par l'État où le territoire est considéré comme un espace limité par des frontières; et 2) la perspective culturaliste où le territoire est défini par son appropriation et par par l’identité qu’il confère. Cependant, une nouvelle tendance émerge à travers l'intégration de ces deux perspectives, autant en Colombie que dans d’autres pays. Ainsi, l'analyse démontre que de nouveaux acteurs ont émergé, par exemple le Conseil territorial de la planification qui représente la concrétisation du discours de participation communautaire exprimé dans différentes lois. De plus, la population paysanne qui a résisté à l'expansion urbaine de Bogota constitue un acteur primordial. Les nouveaux patrons de relations urbaine-rurale démontrent une très grande diversité d'activités et de fonctions présentes dans cette nouvelle « frontière » très dynamique où des éléments urbains et ruraux sont combinés, toujours présents mais aussi toujours en évolution.
Resumo:
La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.
Resumo:
Dans ce mémoire, l’auteur part d’un constat : deux commissions sont lancées au Québec et en France dans des contextes similaires d’intense débat social autour de la question de la laïcité. Même si la commission française réserve le rôle principal au concept de laïcité et que la commission québécoise l’examine parmi d’autres concepts, il est évident que la polémique québécoise des accommodements raisonnables en matière sociale et religieuse fait écho au débat du voile en France, les trames de lancement des commissions, une comparaison des concepts de laïcité est ainsi pertinente. Des modèles différents de laïcité des commissions mises en parallèle : une laïcité ouverte mettant davantage l’accent sur la liberté de conscience et permettant le port de signes religieux pour le Rapport Bouchard-Taylor et une laïcité ferme mettant en équilibre la liberté de conscience et l’égalité de traitement avec une nécessité de respect de l’ordre et de la neutralité d’un espace public, alors que le port d’objet religieux ostensibles est exclu de l’école publique pour le Rapport Stasi. Les trajectoires historiques menant à ces commissions permettent de dégager l’importance de moments clés dans la formation de la laïcité : les révolutions, l’installation des idéologies étatiques et l’institutionnalisation par le droit et l’éducation. Ces charnières par leur spécificité nationale contribuent à façonner les laïcités québécoise et française.
De l'animation des images fixes dans "Me and You and Everyone we Know" : photographie, vidéo, cinéma
Resumo:
Ce mémoire de maîtrise porte sur l’animation des images fixes dans le film Me and You and Everyone we Know réalisé en 2005 par Miranda July, et tout particulièrement sur les pratiques artistiques de la protagoniste Christine Jeperson, qui est artiste vidéaste. L’objet de cette étude se fonde sur les matériaux utilisés par l’artiste-protagoniste elle-même, et vise en premier la photographie, puisqu’elle travaille toujours à partir de photos amateur, de clichés, d’images banales, qu’elle tente d’animer par le biais de la vidéo et de leur mise en récit. Ces deux dispositifs d’animation, qui à leur façon redonnent du temps et du mouvement aux images, réalisent un déplacement de valeur en en faisant de l’art et déploient du même coup un espace propre à une certaine expérience esthétique du spectateur, car c’est dans son imaginaire que peut véritablement se produire l’animation de ces images. Ainsi, dans ce mémoire, je tenterai tout à la fois de me concentrer sur ce détail du film que sont les œuvres de Christine, mais en cherchant à les mettre en relation avec d’autres moments du film, avec ce qui semble être les motifs privilégiés de la pratique de Miranda July, de même qu’avec d’autres moments de l’histoire de l’art, afin d’en historiciser la démarche. Ce travail servira donc à éclairer une pratique d’images contemporaine singulière, à la croisée entre photographie, vidéo et film.
Resumo:
L’objectif de ce mémoire est de comprendre comment une certaine vision du monde, basée sur des croyances théologiques, a contribué à la composition du concerto pour violon Offertorium de Sofia Gubaïdulina. C’est par le biais de cette œuvre qu’est explorée l’idée du dialogue musicothéologique, en proposant des façons par lesquelles la pièce musicale en question peut servir de porteuse ou d’interprète d’une pensée théologique. Afin d’appuyer cette idée, la démarche intertextuelle employée par Heidi Epstein est utilisée. Cette méthode permet de faciliter non seulement le travail interdisciplinaire, mais aussi la lecture théologique de l’œuvre musicale. Le premier chapitre explore les sources, les questions et la problématique qui entoure le dialogue musicothéologique. La conclusion tirée est que l’étude d’Offertorium nécessite une approche équilibrée. Nous entendons par cela, une approche qui prend en ligne de compte la réflexion théologique autant que la recherche musicologique tout en respectant les contributions théologiques que l’œuvre musicale peut apporter en soi. Dans le deuxième chapitre, une analyse thématique d’Offertorium a été tentée ainsi qu’une étude du discours théologique et spirituel de la compositrice. Il a été conclu que l’arrière-plan russe orthodoxe de Gubaidulina a beaucoup influencé sa vision du monde et son approche artistique. Le concerto est porteur d’idées et de symboles liturgiques ou théologiques de l’Orthodoxie dans sa structure et dans sa construction thématique. Le troisième chapitre explore les parallèles entre la pensée de Gubaidulina et les écritures de plusieurs théologiens russes orthodoxes du 20e siècle. La conclusion de ce chapitre démontre que, même s’il est improbable que la compositrice connaisse bien ces auteurs, sa compréhension théologique et spirituelle sort du climat religieux de l’Église Orthodoxe. Cette idée explique les complémentarités et les similarités entre son discours, son œuvre et les propos des théologiens discutés. Le quatrième chapitre évalue la validité d’Offertorium comme moyen d’expression théologique ainsi que de générateur de réflexion théologique. La conclusion de la recherche est qu’Offertorium peut bel et bien être un espace théologique. Ce qui veut dire que des idées théologiques peuvent être communiquées par le biais de l’expérience sonore que ce soit par la mélodie ou l’ambiance générale. Également, cela implique que la musique devient un partenaire égal, quoique différent des méthodes de réflexion traditionnelles au sein de la conversation théologique.
Resumo:
Pour respecter les droits d'auteur, la version électronique de ce mémoire à été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.