22 resultados para CONVERGENT BASIS-SETS
Resumo:
Aboriginal rights are rights held by aboriginal peoples, not by virtue of Crown grant, legislation or treaty, but “by reason of the fact that aboriginal peoples were once independent, self-governing entities in possession of most of the lands now making up Canada.” It is, of course, the presence of aboriginal peoples in North America before the arrival of the Europeans that distinguishes them from other minority groups in Canada, and explains why their rights have special legal status. However, the extent to which those rights had survived European settlement was in considerable doubt until as late as 1973, which was when the Supreme Court of Canada decided the Calder case.2 In that case, six of the seven judges held that the Nishga people of British Columbia possessed aboriginal rights to their lands that had survived European settlement. The actual outcome of the case was inconclusive, because the six judges split evenly on the question whether the rights had been validly extinguished or not. However, the recognition of the rights was significant, and caught the attention of the Government of Canada, which began to negotiate treaties (now called land claims agreements) with First Nations in those parts of the country that were without treaties. That resumed a policy that had been abandoned in the 1920s, when the last numbered treaty was entered into.
Resumo:
"Des spécialistes de la Cour suprême du Canada et de la Cour fédérale du Canada, Bill MURRAY et Gary PINDER, ont entrepris d’explorer les moyens par lesquels ces institutions pourraient prendre le virage vers l’électronique pour leurs échanges et leur gestion de l’information. Deux projets ont initialement été présentés au programme Gouvernement en direct. Ces projets ont progressivement convergés jusqu’au point de n’en former qu’un seul, celui décrit dans le « Document de travail : Modèle de fournisseur de services de dépôt électronique ». Un document, avertissent ses auteurs, qui ne vise pas l’endossement d’un modèle particulier, mais plutôt l’identification des voies par lesquelles un système cohérent de dépôt électronique pourrait être mis en place au Canada. D'emblée, quatre éléments du modèle proposé apparaissent particulièrement remarquables : il offre un cadre d’ensemble plutôt qu’un projet isolé ; il s’appuie sur l’utilisation de normes techniques, « Standard as Key Enabler » écrivent-ils ; il met à profit l’entreprise privée, un partenaire capable de trouver les marchés et de les développer ; il prévoit enfin, et ce n’est pas le moindre de ses mérites, la création d’un environnement compétitif pour le dépôt électronique. Selon nous, la voie qu’ils ont tracée peut être empruntée. Ce n’est pas dire qu’il faille accepter, tels quels, tous les éléments du projet sans examiner d’autres orientations ou poursuivre certaines réflexions. Mais, dans l’ensemble, la direction est juste et nous devrions nous y engager. Nous avons choisi de suggérer des orientations, et elles convergent presque toujours avec celles adoptées par les auteurs du document de travail. Nous ne mentionnons ici que la plus centrale d’entre elles. Le projet de mettre en place un système cohérent de dépôt électronique confirme s’il était nécessaire le besoin maintes fois ressenti d’un conseil canadien de l’information juridique. Un tel conseil pourrait mener des consultations et procéder à l’adoption des normes techniques qui manquent aujourd’hui cruellement au monde juridique canadien. Le présent projet et la réflexion qu’il nous impose nous offrent peut-être l’occasion de nous doter de cet outil qui non seulement pourrait clarifier le cadre du dépôt électronique, mais aussi d’élaborer les autres normes et lignes de conduite nécessaires à notre domaine. Il reste à inviter la magistrature à examiner attentivement le projet avancé par MURRAY et PINDER. Il esquisse une approche audacieuse et nouvelle pour que nos institutions judiciaires évoluent vers une utilisation encore plus efficiente des nouveaux moyens technologiques. L’influence et l’appui éclairé de la magistrature sont essentiels au démarrage d’un tel projet. D’autres aussi auront à examiner les mérites du modèle proposé, notamment les responsables administratifs des grandes institutions judiciaires canadiennes, nous sommes certains qu’ils sauront eux aussi reconnaître les possibilités que recèle ce projet."
Resumo:
La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est la déformation la plus fréquente en orthopédie pédiatrique. C'est une maladie qui génère des déformations complexes du rachis, du thorax et du bassin affectant plus sévèrement et majoritairement les filles à la puberté. Malgré de nombreuses années de recherches approfondies dans le domaine de la SIA, la cause n'a toujours pas été résolue. OBJECTIFS : Il a été démontré qu’il existe une dysfonction de la signalisation de la mélatonine par les protéines G inhibitrices (Gi) dans les ostéoblastes isolés de patients atteints de SIA. Ceci a conduit à une stratification des patients en trois groupes fonctionnels. Le but de ce projet de maîtrise est d’établir les profils d’expression moléculaire correspondant à chacun des groupes fonctionnels. Les objectifs spécifiques sont d’identifier les gènes responsables de l’initiation de la SIA et du défaut différentiel observé dans la signalisation des récepteurs couplés aux protéines Gi. MÉTHODES : Des ARNs ont été préparés à partir d’ostéoblastes isolés de patients atteints de SIA sélectionnés pour chaque groupe fonctionnel et comparés aux ARNs obtenus d’ostéoblastes de sujets sains. En plus, des cellules sanguines (PBMCs) isolées d’une paire de jumelles monozygotes discordantes pour la scoliose ont été étudiées pour comparer leur profil d’expression génétique. Nous avons utilisé des biopuces à ADN contenant un ensemble de 54,000 sondes permettant l’analyse du niveau d’expression de plus de 47,000 transcrits représentant 30,000 gènes humains bien caractérisés (Affymetrix, GeneChip® Human gene 1.0 ST array). Les gènes retenus ont par la suite été validés par qPCR sur un plus grand nombre de patients afin de tester la spécificité des profils d’expression pour chaque groupe de patients à partir des cellules osseuses dérivées lors de la chirurgie. RÉSULTATS: Le profilage moléculaire proposé permettra d’établir les fondements moléculaires de la SIA selon le test fonctionnel développé par le Dr Moreau et son équipe et d’identifier de nouveaux gènes associés à la SIA. Ce projet a permis de mettre en évidence des gènes possiblement impliqués dans le défaut de signalisation associé aux protéines Gi communs aux trois groupes, ainsi que des gènes spécifiques à certains groupes, pouvant contribuer au développement de certaines co-morbidités et/ou au risque d’aggravation des déformations rachidiennes. L’étude préliminaire des jumelles monozygotes discordantes pour la scoliose a mis en évidence un nombre limité de gènes possiblement associés au défaut de signalisation observé chez la jumelle scoliotique, gènes dont l’expression pourrait être influencée par des modifications d’ordre épigénétique liées à l’environnement. CONCLUSION: Les données obtenues par des approches de transcriptomiques dans le cadre de ce projet soutiennent notre méthode de stratification fonctionnelle des patients SIA et ont conduit à l’identification de nouveaux gènes associés à la SIA. Ces résultats jettent un éclairage nouveau sur la SIA et contribuent à une meilleure compréhension des mécanismes et facteurs impliqués dans l’étiologie de la SIA. À cet égard, nos résultats permettront éventuellement d’identifier des cibles thérapeutiques potentielles et des traitements personnalisés compte tenu des profils moléculaires distincts observés pour chaque groupe de patients.
Resumo:
La concentration locale des messagers chimiques sécrétés par les cellules peut être mesurée afin de mieux comprendre les mécanismes moléculaires liés à diverses maladies, dont les métastases du cancer. De nouvelles techniques analytiques sont requises pour effectuer ces mesures locales de marqueurs biologiques à proximité des cellules. Ce mémoire présentera le développement d’une nouvelle technique basée sur la réponse plasmonique sur des leviers AFM, permettant d’étudier les réactions chimiques et biologiques à la surface des leviers grâce au phénomène de résonance des plasmons de surface (SPR), ainsi qu’à la diffusion Raman exaltée par effet de pointe (TERS). En effet, il est possible de localiser l’amplification du signal Raman à la pointe d’un levier AFM, tout comme le principe de la diffusion Raman exaltée par effet de surface (SERS) basée sur la diffusion de la lumière par des nanoparticules métalliques, et permettant une large amplification du signal Raman. La surface du levier est recouverte d’une nano-couche métallique d’or, suivi par des réactions biologiques pour l’immobilisation d’un récepteur moléculaire, créant ainsi un biocapteur sur la pointe du levier. Une détection secondaire utilisant des nanoparticules d’or conjuguées à un anticorps secondaire permet également une amplification du signal SPR et Raman lors de la détection d’antigène. Ce mémoire démontrera le développement et la validation de la détection de l’immunoglobuline G (IgG) sur la pointe du levier AFM.Dans des projets futurs, cette nouvelle technique d’instrumentation et d’imagerie sera optimisée grâce à la création d’un micro-détecteur protéique généralement adapté pour l’étude de la communication cellulaire. En intégrant le signal SPR à la microscopie AFM, il sera alors possible de développer des biocapteurs SPR couplés à une sonde à balayage, ce qui permettra d’effectuer une analyse topographique et de l’environnement chimique d’échantillons cellulaires en temps réel, pour la mesure des messagers moléculaires sécrétés dans la matrice extracellulaire, lors de la communication cellulaire.
Resumo:
Cette thèse examine les théories politiques profanes qui sont mises de l’avant dans les articles et les reportages des journalistes politiques. Par «théories profanes», nous entendons les constructions intellectuelles informelles qui aident les journalistes à appréhender et à concevoir la vie politique. Nous les définissons ici par opposition aux théories scientifiques des universitaires. Ces théories sont examinées sous trois angles différents, au travers de trois articles scientifiques distincts. Notre principal objectif est de déterminer dans quelle mesure et pour quelles raisons les théories journalistiques profanes convergent ou divergent des théories universitaires scientifiques. Au premier chapitre, nous nous demandons ce que les journalistes font, en nous attardant aux critères sur lesquels ces derniers s’appuient pour analyser la personnalité des chefs de partis politiques. Plus précisément, nous cherchons à savoir si les journalistes tiennent compte des considérations politiques jugées importantes par les citoyens. Afin d’atteindre cet objectif, nous réalisons une analyse de contenu des reportages diffusés dans les grands bulletins d’information télévisés au sujet de l’ex-chef du Parti québécois, André Boisclair. Au second chapitre, nous poussons notre réflexion un cran plus loin en nous demandant ce que les journalistes disent précisément dans les théories qu’ils développent. Pour ce faire, nous examinons les théories développées par les journalistes pour expliquer le comportement des parlementaires. De manière spécifique, nous contrastons les théories académiques de la dissidence politique avec ce qui s’est écrit dans les grands journaux canadiens à l’occasion de quatre votes particulièrement serrés ayant eu lieu à la Chambre des communes à propos de la prolongation de la mission canadienne en Afghanistan et de l’abolition du registre des armes d’épaule. Enfin, nous nous attardons à ce que les journalistes pensent de leurs propres théories, en les interrogeant sur les raisons qui les poussent à mettre ces dernières de l’avant et sur la manière dont ils s’y prennent pour les développer. Nous nous attardons aux mécanismes qui rythment la pensée des journalistes et nous portons notre regard sur les matériaux dont ceux-ci se servent pour construire les théories qu’ils incluent dans leurs reportages. Pour ce faire, nous réalisons des entrevues semi-dirigées avec des journalistes politiques affectés à la couverture de l’élection présidentielle française de 2012. Nos questions portent notamment sur le chemin intellectuel qu’ils parcourent lorsqu’ils tentent de comprendre et d’expliquer le comportement des politiciens, ainsi que sur la façon dont ils conçoivent les campagnes électorales et le rôle qu’ils sont appelés à jouer à l’intérieur de celles-ci. Nos conclusions sont à l’effet que les journalistes construisent bel et bien des théories profanes de la vie politique afin d’aller au-delà des simples comptes rendus factuels et de répondre à ce qu’ils considèrent être une nécessité de leur travail. Les théories qu’ils mettent de l’avant tiennent compte des considérations politiques jugées importantes par les électeurs, et elles ont des traits communs avec certaines des idées sous-tendues par les théories scientifiques des universitaires. Ces théories s’articulent autour des observations que font les journalistes, et des conversations auxquelles ils prennent part ou dont ils sont témoins. Elles reflètent la plupart du temps l’expérience ou le vécu du journaliste. Les théories journalistiques profanes se distinguent toutefois des théories scientifiques en ce qu’elles ne sont ni formalisées, ni explicitement nommées. Elles n’ont pas la sophistication des théories universitaires, et elles sont parfois reléguées à l’arrière-plan de la couverture médiatique au bénéfice d’aspects plus théâtraux de la vie politique. Les journalistes développent par contre des mécanismes pour valider leurs théories. La contribution de cette thèse à l’avancement des connaissances se manifeste sur les plans conceptuel, théorique et empirique. Sur le plan conceptuel, nous étayons davantage le concept des théories journalistiques. Notre thèse permet de mieux comprendre la couverture médiatique de la politique, en mettant en lumière un de ses aspects jusqu’ici négligé par les politologues, soit le fait que les journalistes construisent et utilisent des théories politiques qui leur sont propres pour appréhender l’univers au sein duquel ils évoluent. Sur le plan théorique, nous faisons ressortir les objectifs et les impératifs qui guident les journalistes qui développent ces théories. Enfin, sur le plan empirique, nous donnons pour une rare fois l’occasion aux journalistes de s’exprimer sur la manière dont ils perçoivent leur propre travail.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.