993 resultados para à propos
Resumo:
Les tumeurs solides sont infiltrées par des cellules immunes (TIIC) dont la nature, la fonction et la composition varient d’un patient à l'autre. Ces cellules inflammatoires influencent l'invasion tumorale en contrôlant la croissance et le potentiel métastatique d’une tumeur. Ainsi, il est proposé d’utiliser cette infiltration comme outil diagnostic et pronostic de routine. Certaines cellules sont bien connues pour jouer un rôle important dans le contrôle de la progression tumorale, comme c’est le cas des lymphocytes T cytotoxiques CD8+ alors que d’autres possèdent un rôle contradictoire. Étant donné la dépendance des tumeurs sur l’équilibre entre ces différentes cellules, il est important d’identifier les fonctions précises des cellules immunes au sein de la tumeur. De nombreuses études sont réalisées afin d’identifier des marqueurs descriptifs du phénotype et la fonction des cellules immunes dans la tumeur. Ce projet de doctorat se divise en deux parties : 1- Identifier la méthode de désagrégation des tissus tumoraux altérant le moins la biologie des TIIC pour leur caractérisation. 2- Caractériser l’expression de la molécule d’adhérence CD146 dans les TIIC et en identifier l’origine. L’identification de marqueurs pour la caractérisation phénotypique et fonctionnelle des TIIC a été réalisée, entre autres, par la détection de protéines exprimées par la cellule. Dans la première partie de ce projet, nous avons démontré que les méthodes utilisées pour désagréger les tissus tumoraux dans le but d’isoler les TIIC induisent des changements dans la biologie de ces cellules ce qui peut fausser les conclusions qui en dérivent. Nous avons donc comparé l'impact de trois méthodes de désagrégation : une dissociation mécanique utilisant la MédimachineTM et deux digestions enzymatiques utilisant une collagénase de type I seule ou combinée à de la collagénase de type IV et de la DNase I de type II. Nous nous sommes intéressés à l'effet de ces méthodes sur des paramètres tels que la viabilité cellulaire, l’altération des protéines de surface et la capacité des cellules à proliférer. Nous avons démontré que ces méthodes affectent la viabilité des cellules de manière comparable, alors que la détection de certaines protéines de surface et la capacité de proliférer est réduite/inhibée par les traitements enzymatiques. Nous concluons qu’une méthode mécanique utilisant la MédimachineTM est mieux adaptée à la caractérisation des TIIC afin de conserver leurs propriétés. Dans la deuxième partie de notre projet, nous avons adapté cette méthode à la caractérisation des TIIC. Nous avons porté une attention particulière à la molécule d’adhérence CD146 dont l’implication dans la migration des cellules immunes à travers l’endothélium vers les sites d’inflammation est de plus en plus étudiée dans les maladies autoimmunes. Nous avons mis en évidence une augmentation des proportions de cellules immunes exprimant CD146 dans les tumeurs comparativement au sang de patients de cancers. Cette expression est induite par les cellules tumorales tout en étant accrue par la nécrose de celles-ci. Nous démontrons que ces cellules sont majoritairement des lymphocytes T CD4+ présentant un profil immunosuppressif. En conclusion, nos résultats suggèrent que CD146 participe à la mise en place du contexte immunitaire dans la tumeur et augmente la capacité de migration des lymphocytes T CD4+. L’induction par les cellules tumorales de cette molécule d’adhérence dans les cellules suppressives pourrait contribuer aux mécanismes immunorégulateurs mis en place par la tumeur. CD146 pourrait être un marqueur d’intérêt pour l’identification des cellules immunosuppressives et pour le développement de nouvelles thérapies.
Resumo:
Full Text / Article complet
Resumo:
Thèse réalisée en cotutelle avec l'université de Franche-Comté, école doctorale Langage, espace, temps et société.
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
Cette thése relie trois articles sur l'économie politique. Ces articles analysent à la fois théoriquement et empiriquement si, et dans quelle mesure, trois phénomènes politiques différents (les partis politiques, les guerres civiles et les menaces externes), et leur interaction, influent sur les résultats économiques. Le premier chapitre étudie l'impact de la présence au pouvoir des politiciens de nouveaux partis politiques sur la taille du gouvernement. Le chapitre se concentre sur les municipalités colombiennes, où les nouveaux partis politiques ont été nombreux et fructueux au cours des dernières années. Les estimations par régressions sur discontinuité montrent que les dépenses publiques et les recettes fiscales sont significativement plus élevées dans les municipalités gouvernées par un maire d'un nouveau parti politique. En utilisant des informations sur la politique locale et des caractéristiques des nouveaux partis, je soutiens que ce résultat peut être expliqué par le fait qu'il y a moins d'information sur les politiciens de nouveaux partis que les politiciens des partis traditionnels. Le deuxième chapitre développe une nouvelle explication de l'impact des guerres civiles et des conflits interétatiques sur le state-building qui repose sur l'idée que les protagonistes de ces deux types de conflits peuvent avoir un lien (ethnique ou idéologique). Un premier résultat montre que la force de ce lien détermine si les conflits contre des adversaires internes (i.e. guerres civiles) ou des ennemis externes (i.e. conflits interétatiques) sont complémentaires ou se substituent, conduisant à plus ou moins d'investissement en capacité fiscale. La théorie prédit également un rôle non trivial de la stabilité politique dans la relation entre les deux types de conflits et la capacité fiscale: un deuxième résultat montre que, bien que la stabilité politique se traduit par moins de capacité fiscale, plus de stabilité n'implique pas plus de state-building. Leur équivalence dépend du niveau de cohésion des institutions. Un nouveau mécanisme par lequel plus de stabilité politique peut impliquer moins de state-building est proposé. En outre, il est démontré que des corrélations dans les données cross-country sont compatibles avec la théorie. Le troisième chapitre examine la relation entre la probabilité d'occurrence d'un conflit intérieur violent et le risque qu'un tel conflit "s'externalise" (c'est à dire se propage dans un autre pays en devenant un conflit interétatique). Je considère une situation dans laquelle un conflit interne entre un gouvernement et un groupe rebelle peut s'externaliser. Je montre que le risque d'externalisation augmente la probabilité d'un accord de paix, mais seulement si le gouvernement est suffisamment puissant par rapport aux rebelles, et si le risque d'externalisation est suffisamment élevé. Je montre comment ce modèle aide à comprendre les récents pourparlers de paix entre le gouvernement colombien et le groupe le plus puissant des rebelles dans le pays, les FARC.
Resumo:
En 1986, à Assise, le pape Jean-Paul II a innové en rassemblant des chefs religieux du monde entier pour une prière pour la paix dans le monde. Ce mémoire s'attarde sur cette pratique particulière de dialogue interreligieux à Assise. L'analyse praxéologique de la rencontre d'Assise a permis, dans une première partie appelée observation, après une contextualisation de la rencontre, d'en suivre pas à pas les préparatifs et le déroulement pour terminer sur les suites d'Assise dans le monde. Cette observation nous a permis de soulever une problématique fondamentale à savoir comment l'Eglise peut-elle contribuer pleinement au dialogue interreligieux tout en conservant intactes son identité et sa mission? En d'autres termes, la rencontre d'Assise a-t-elle été une pratique de dialogue interreligieux en conformité avec les convictions de la foi chrétienne? Sur la base de notre problématique et dans une deuxième partie appelée interprétation, nous avons procédé à une analyse théologique de la rencontre d'Assise en regard de thèmes majeurs de la Christologie que sont la Révélation, le Salut, la Vérité et la missiologie. De cette interprétation découle, qu'à Assise, la Christologie catholique a été repensée dans un sens plus pneumatique et plus inclusif. A la lumière de notre interprétation théologique, et dans une troisième partie appelée intervention, nous sommes revenu sur ce qui nous semble être les points forts et les points faibles de la rencontre, avant d'élargir l'horizon sur des initiatives similaires au Québec en s'inspirant d'Assise. A cet effet, nous avons proposé que l'Oratoire Saint-Joseph qui, de par sa fréquentation multireligieuse et de par la fraternité qui s'y vit quotidiennement pourrait être le théâtre d'une rencontre interreligieuse inspirée d'Assise.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
Le progrès scientifique et technologique n'est pas sans faille – les conséquences imprévues de son application peuvent causer de nouveaux problèmes. Tel est le constat machiavélien sur lequel est fondé le projet En imparfaite santé : la médicalisation de l'architecture du Centre Canadien d'Architecture (2011-2012), présenté sous forme d'exposition et de catalogue. Ce mémoire étudie comment les deux plateformes, la première étant expérientielle et la seconde théorique, formulent une critique du processus de la médicalisation actuelle, lequel est entré dans le champ de l'architecture contemporaine. L’exposition est approchée comme discours et comme installation d’objets pour un public; une attention particulière est alors portée à la scénographie et au parcours du visiteur. D’autres réflexions ont pour objet le graphisme, un outil soutenant le leitmotiv de confrontation. Dans l’étude du catalogue, l’accent est mis sur l’essai d’introduction, qui est implicitement traversé par le concept fondamentalement ambivalent de pharmakon. Le péritexte, l’encadrement physique du contenu principal de l’ouvrage, est aussi examiné. Ensuite, l’analyse comparative propose que chaque plateforme véhicule un propos différent, une stratégie rendue possible par l’ambivalence de la notion de corps, entendue littéralement et métaphoriquement. La conclusion finale du mémoire esquisse une courte proposition de contextualisation, autant de cette dualité que de la remise en question de l’autorité du discours techno-scientifique. Bien qu’En imparfaite santé dirige sa critique envers la persistance de la vision moderniste de l'architecture, nous avançons que le projet concerne tout autant, sinon plus, l'omniprésence actuelle du numérique. Ce dernier, à l’instar de l’architecture moderne, ne modifie pas seulement la conception du corps humain et architectural, il renforce également une croyance positiviste dans la technologie qui n'est pas toujours contrebalancée par la pensée critique.
Resumo:
La présente recherche traite des conflits d’aménagement pouvant être décelés dans les cuisines domiciliaires modernes. L’ajout d’objets mécanisés au rituel alimentaire quotidien a su changer la dynamique du lieu. En effet, l’architecture des cuisines modernes en Occident présente de grandes contradictions. Basées sur des standards architecturaux, les cuisines modulaires ne reflètent pas la variété et l’unicité des aliments auxquels les cuisines sont dédiées. Les cuisines devraient être le miroir de la vivacité naturelle des aliments et des échanges humains que la nourriture génère à travers le plaisir et le partage. Dans l’espoir de proposer des outils afin de rééquilibrer la dynamique de cette pièce, un cadre théorique basé sur les théories architecturales de l’architecte et mathématicien anglais Christopher Alexander a été établi. Supportant la présente recherche, ces théories architecturales s’inspirent de la structure et de la composition des choses de la nature et des monuments anciens afin d’établir des balises d’aménagement simples et équilibrées (qualité de vie, patterns, configuration des événements, configurations de l’espace, ...). Ces théories ont aidé à concevoir une formule d’ateliers participatifs qui visent à outiller les occupants, qui sont très souvent des non-professionnels du domaine de l’architecture et du design. Ces ateliers proposent un cheminement bien encadré qui permet aux participants de retravailler leur espace de cuisine respectif selon leurs goûts et leurs besoins. En fournissant un plan de l’étage où se situe la cuisine, quelques crayons, règles et autres matériel de dessin, les participants ont pour tâche de réaménager leur cuisine en un espace de cuisine idéal. La deuxième étape, qui elle se réalise en équipe avec tous les occupants participants de la demeure, consiste à réduire l’ampleur des changements afin d’arriver à un résultat réaliste. L’enthousiasme noté tout au long de ce processus a ainsi permis de confirmer que les non-professionnels du domaine de l’architecture et du design peuvent développer un intérêt marqué pour l’amélioration de leurs interactions quotidiennes, avec l’espace et entre les occupants, lorsque bien accompagnés dans cette tâche. Grâce aux propos et aux plans recueillis durant les séances d’ateliers participatifs ainsi qu’à l’analyse de ces données, une série d’interprétations ont émergé. Les données ont notamment démontrées l’influence positive de l’utilisation des patterns d’Alexander. L’analyse permet, en outre, de noter les tendances d’aménagement ayant émergé de l’utilisation des patterns dans les espaces de cuisine : définitivement, les cuisines se sont transformées en espace de vie partagé et polyvalent. Finalement, la présente recherche se conclut grâce à une série de recommandations qui traitent de la structure des cuisines, des ateliers participatifs et des patterns. Tout d’abord, l’impact de ces notions sur les espaces retravaillés par les participants est impressionnant. Les espaces sont bien organisés, vastes et, surtout, reflètent les occupants qui y vivent au quotidien. De plus, ayant démontré la facilité d’utilisation et la polyvalence des patterns, il a été jugé que certains aspects devraient être améliorés tels que l’actualisation de certains patterns, le prolongement du processus d’ateliers, le perfectionnement de la méthode et la diffusion des résultats.
Resumo:
Le présent mémoire décrit le développement d’une méthode de synthèse des hélicènes catalysée par la lumière visible. Les conditions pour la formation de [5]hélicène ont été établies par une optimisation du photocatalyseur, du solvant, du système d’oxydation et du temps réactionnel. Suite aux études mécanistiques préliminaires, un mécanisme oxydatif est proposé. Les conditions optimisées ont été appliquées à la synthèse de [6]hélicènes pour laquelle la régiosélectivité a été améliorée en ajoutant des substituants sur la colonne hélicale. La synthèse de thiohélicènes a aussi été testée en utilisant les mêmes conditions sous irradiation par la lumière visible. La méthode a été inefficace pour la formation de benzodithiophènes et de naphtothiophènes, par contre elle permet la formation du phenanthro[3,4-b]thiophène avec un rendement acceptable. En prolongeant la surface-π de la colonne hélicale, le pyrène a été fusionné aux motifs de [4]- et [5]hélicène. Trois dérivés de pyrène-hélicène ont été synthétisés en utilisant les conditions optimisées pour la photocyclisation et leurs caractéristiques physiques ont été étudiées. La méthode de cyclisation sous l’action de la lumière visible a aussi été étudiée en flux continu. Une optimisation du montage expérimental ainsi que de la source lumineuse a été effectuée et les meilleures conditions ont été appliquées à la formation de [5]hélicène et des trois dérivés du pyrène-hélicène. Une amélioration ou conservation des rendements a été observée pour la plupart des produits formés en flux continu comparativement à la synthèse en batch. La concentration de la réaction a aussi été conservée et le temps réactionnel a été réduit par un facteur de dix toujours en comparaison avec la synthèse en batch.
Resumo:
À mesure que la population des personnes agées dans les pays industrialisés augmente au fil de années, les ressources nécessaires au maintien du niveau de vie de ces personnes augmentent aussi. Des statistiques montrent que les chutes sont l’une des principales causes d’hospitalisation chez les personnes agées, et, de plus, il a été démontré que le risque de chute d’une personne agée a une correlation avec sa capacité de maintien de l’équilibre en étant debout. Il est donc d’intérêt de développer un système automatisé pour analyser l’équilibre chez une personne, comme moyen d’évaluation objective. Dans cette étude, nous avons proposé l’implémentation d’un tel système. En se basant sur une installation simple contenant une seule caméra sur un trépied, on a développé un algorithme utilisant une implémentation de la méthode de détection d’objet de Viola-Jones, ainsi qu’un appariement de gabarit, pour suivre autant le mouvement latéral que celui antérieur-postérieur d’un sujet. On a obtenu des bons résultats avec les deux types de suivi, cependant l’algorithme est sensible aux conditions d’éclairage, ainsi qu’à toute source de bruit présent dans les images. Il y aurait de l’intérêt, comme développement futur, d’intégrer les deux types de suivi, pour ainsi obtenir un seul ensemble de données facile à interpréter.
Resumo:
Comment comprendre la volonté d'appartenir à la nation américaine des Afro-Américains en dépit d'une mémoire faite d'humiliation et d'une accumulation de revers? À plusieurs reprises durant l'histoire américaine, des élites ont proposé à la communauté noire des solutions dites « radicales » qui remettent en question le paradigme dominant de l'intégration à la nation américaine. Ce mémoire tente d'identifier les raisons qui expliquent pourquoi, au cours du mouvement pour les droits civiques, les Noirs font le choix de l'intégration défendu par Martin Luther King et rejettent le séparatisme défendu par Malcolm X. La spécificité du mémoire réside dans l'utilisation de la littérature sur la formation des nations qui me permet d'étudier le choix des Afro-Américains. La nation est vue comme le produit d'une construction qui fait interagir les élites et les masses. J'étudie « par le haut » la façon dont les entrepreneurs ethniques, King et Malcolm X, redéfinissent l'américanité. J'étudie également « par le bas » comment les masses reçoivent les discours de ces élites. Ma première hypothèse se consacre à la formation de l'alliance stratégique entre King et l'exécutif américain qui permet à King de définir l'agenda législatif et d'appuyer son discours sur les gains qu'il réalise. La deuxième hypothèse se penche sur la structure des opportunités s'offrant aux Afro-Américains qui orientent le choix qu'ils font.
Resumo:
Avec la sécularisation, la laïcité et la diversité croissantes de la société québécoise, la place de la religion en général et du catholicisme en particulier se sont vues remises en question. Cette situation a d’ailleurs mené à la mise en place de deux commissions : l’une sur la place de la religion à l’école (1999) et l’autre sur les pratiques d’accommodements reliées aux différences culturelles (2008). Ces deux commissions auront fourni énormément d’informations sur les rapports qu’entretiennent encore les Québécois avec le catholicisme. Cette recherche a donc pour but de faire le point sur certains aspects du catholicisme au Québec à partir d’une perspective reposant principalement sur des instruments heuristiques issus des écrits signés « Jacques Derrida ». Pour ce faire, nous nous appuierons sur les travaux du Groupe de travail sur la religion à l’école, de la consultation générale sur la place de la religion à l’école et de la commission de consultation sur les pratiques d’accommodement reliées aux différences culturelles. Nous posons comme hypothèse que de manière générale, les Québécois entretiennent avec le catholicisme, des rapports « archivaux », c’est-à-dire conditionnés par des perceptions de ce dernier informées par son passé, plutôt que par son présent. De plus, ces perceptions du catholicisme, probablement développées dans le sillage de la Révolution tranquille et peut-être même un peu avant, nourriraient l’existence de « spectres » qui viendraient hanter les rapports des Québécois à tout ce qui touche le religieux et la diversité culturelle. En ce sens, il s’agit d’une dimension essentielle de ce que nous appellerions la « postmodernité » religieuse québécoise. Pour illustrer ce propos, nous mènerons une analyse de contenu documentaire. Premièrement, nous procéderons à l’analyse thématique de centaines de documents (rapports de recherche, rapports officiels, mémoires) déposés lors de ces débats. Le logiciel QDA Miner permettra d’effectuer une analyse documentaire en identifiant les passages thématiques reliés à la recherche. Nous procéderons ensuite à une analyse plus fine de ces extraits sélectionnés à partir de perspectives philosophiques provenant principalement du philosophe Jacques Derrida.
Resumo:
La perception visuelle ne se résume pas à la simple perception des variations de la quantité de lumière qui atteint la rétine. L’image naturelle est en effet composée de variation de contraste et de texture que l’on qualifie d’information de deuxième ordre (en opposition à l’information de premier ordre : luminance). Il a été démontré chez plusieurs espèces qu’un mouvement de deuxième ordre (variation spatiotemporelle du contraste ou de la texture) est aisément détecté. Les modèles de détection du mouvement tel le modèle d’énergie d’Adelson et Bergen ne permettent pas d’expliquer ces résultats, car le mouvement de deuxième ordre n’implique aucune variation de la luminance. Il existe trois modèles expliquant la détection du mouvement de deuxième ordre : la présence d’une circuiterie de type filter-rectify-filter, un mécanisme de feature-tracking ou simplement l’existence de non-linéarités précoces dans le traitement visuel. Par ailleurs, il a été proposé que l’information visuelle de deuxième ordre soit traitée par une circuiterie neuronale distincte de celle qui traite du premier ordre. Bon nombre d’études réfutent cependant cette théorie et s’entendent sur le fait qu’il n’y aurait qu’une séparation partielle à bas niveau. Les études électrophysiologiques sur la perception du mouvement de deuxième ordre ont principalement été effectuées chez le singe et le chat. Chez le chat, toutefois, seules les aires visuelles primaires (17 et 18) ont été extensivement étudiées. L’implication dans le traitement du deuxième ordre de l’aire dédiée à la perception du mouvement, le Sulcus syprasylvien postéro-médian latéral (PMLS), n’est pas encore connue. Pour ce faire, nous avons étudié les profils de réponse des neurones du PMLS évoqués par des stimuli dont la composante dynamique était de deuxième ordre. Les profils de réponses au mouvement de deuxième ordre sont très similaires au premier ordre, bien que moins sensibles. Nos données suggèrent que la perception du mouvement par le PMLS serait de type form-cue invariant. En somme, les résultats démontrent que le PMLS permet un traitement plus complexe du mouvement du deuxième ordre et sont en accord avec son rôle privilégié dans la perception du mouvement.