966 resultados para Domaine Numérique
Resumo:
La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.
Resumo:
Considérée comme le futur de la pratique médicale, la nanomédecine est l’application des nanotechnologies aux soins de santé. Plus qu’un nouveau domaine d’application technologique, la nanomédecine est porteuse d’un nouveau paradigme biomédical qui promeut une conception technoscientifique de la santé. Ce nouveau paradigme regroupe sous le préfixe nano l’ensemble des grandes tendances actuelles de la recherche en santé : la médecine prédictive, la médecine personnalisée et la médecine régénératrice. Centré sur le développement d’innovations visant au contrôle technique des éléments et des processus biologiques fondamentaux, ce nouveau paradigme se développe largement grâce au soutien des gouvernements et aux promesses économiques qu’il soulève. Il se construit à la croisée du scientifique, du politique et de l’économique. Interroger la nanomédecine revient alors à examiner plus largement la forme et les conditions du sens des innovations biomédicales et à soulever les implications de la « technoscientifisation » des soins de santé. L’objectif de cette thèse est de rendre compte de la spécificité et des enjeux sociaux, culturels et politico-économiques caractéristiques du modèle biomédical technoscientifique porté par la nanomédecine à partir de sa conceptualisation sous la forme d’un idéaltype : la nanosanté. Si la nanomédecine renvoie de manière générale aux applications techniques de la nanotechnologie au domaine biomédical, la nanosanté renvoie aux diverses dimensions sociologiques constitutives de ces technologies et à leurs effets sur la santé et la société. Notre modèle de la nanosanté s’organise autour de trois dimensions : la transversalité, l’amélioration et la globalisation. Compte tenu de sa nature synthétique, ce modèle tridimensionnel permet iii d’aborder de front plusieurs questionnements cruciaux soulevés par le développement de la nanomédecine. Il permet d’éclairer le rapport contemporain à la santé et ses implications sur l’identité ; de mettre en lumière la centralité des technosciences dans la conception du progrès médical et social ; de mieux saisir les nouvelles formes globales de pouvoir sur la vie et les nouvelles formes d’inégalité et d’exploitation caractéristiques d’une société qui accorde une valeur grandissante à l’adaptabilité technique de l’humain et à l’économisation de la santé et du corps ; mais aussi de mieux comprendre le sens et les répercussions de l’engagement scientifique, politique et économique dans les innovations moléculaires et cellulaires.
Resumo:
Les leucémies myéloïdes aigües résultent d’un dérèglement du processus de l’hématopoïèse et regroupent des maladies hétérogènes qui présentent des profils cliniques et génétiques variés. La compréhension des processus cellulaires responsables de l’initiation et du maintien de ces cancers permettrait de développer des outils thérapeutiques efficaces et ciblés. Au cours des dernières années, une quantité croissante d’anomalies génétiques reliées au développement de leucémies ont été corrélées à une expression anormale des gènes HOX et de leurs cofacteurs MEIS et PBX. Des modèles expérimentaux murins ont confirmé le rôle direct joué par ces protéines dans le développement de leucémies. En effet, la protéine MEIS1 collabore avec HOXA9 dans la leucémogenèse et requiert pour ce faire trois domaines distincts. Deux de ces domaines sont conservés chez PREP1, un membre de la même classe d’homéoprotéine que MEIS1. En utilisant une approche de gain-de-fonction, j’ai confirmé l’importance du rôle joué par le domaine C-terminal de MEIS1 dans l’accélération des leucémies induites par HOXA9. J’ai également montré que l’activité de ce domaine était corrélée avec une signature transcriptionnelle associée à la prolifération cellulaire. J’ai ensuite réalisé un criblage à haut débit afin d’identifier des antagonistes de l’interaction MEIS-PBX, également essentielle à l’accélération des leucémies HOX. À cette fin, j’ai développé un essai de transfert d’énergie de résonance de bioluminescence (BRET) permettant de détecter la dimérisation MEIS-PBX dans les cellules vivantes. Plus de 115 000 composés chimiques ont été testés et suite à une confirmation par un essai orthogonal, une vingtaine de molécules ont été identifiées comme inhibiteurs potentiels. Ces composés pourront être rapidement testés sur la prolifération de cellules leucémiques primaires dans un contexte d’étude préclinique. Finalement, deux approches protéomiques complémentaires ont permis d’identifier des partenaires potentiels de MEIS1 et PREP1. La catégorisation fonctionnelle de ces candidats suggère un nouveau rôle pour ces homéoprotéines dans l’épissage de l’ARN et dans la reconnaissance de l’ADN méthylé.
Resumo:
Ce mémoire de maîtrise se penche sur la place du cinéma analogique à l’ère du « tout-numérique », en particulier dans le domaine du cinéma d’avant-garde. Le premier chapitre se consacre, d’un point de vue historique et théorique, sur «l’air du temps cinématographique», c’est-à-dire, sur le statut de la pellicule dans un contexte où l’on assiste à la disparition du format 35mm, tout aussi bien comme support de diffusion dans les salles de cinéma qu’à l’étape du tournage et de la postproduction. Face à une industrie qui tend à rendre obsolète le travail en pellicule, tout en capitalisant sur l’attrait de celle-ci en la reproduisant par le biais de simulacres numériques, il existe des regroupements de cinéastes qui continuent de défendre l’art cinématographique sur support argentique. Ainsi, le deuxième chapitre relève la pluralité des micros-laboratoires cinématographiques qui offrent des formes de résistance à cette domination du numérique. Nous nous intéresserons également, en amont, aux mouvements des coopératives tels que la Film-Maker’s Cooperative de New York et la London Filmmaker’s Coop afin de comprendre le changement de paradigme qui s’est opéré au sein de l’avant-garde cinématographique entre les années 50 et 70. Les mouvements de coopératives cherchaient avant tout une autonomie créative, tandis que les collectifs contemporains dédiés à la pellicule assurent la pérennité d’une pratique en voie de disparition. Finalement, le troisième chapitre propose une étude de cas sur le collectif de cinéastes montréalais Double Négatif. Ce chapitre relate tout aussi bien l’historique du collectif (fondement du groupe lors de leur passage à l’université Concordia), les spécificités qui émanent de leur filmographie (notamment les multiples collaborations musicales) ainsi que leur dévouement pour la diffusion de films sur support pellicule, depuis bientôt dix ans, au sein de la métropole. À l’image de d’autres regroupements similaires ailleurs sur la planète (Process Reversal, l’Abominable, Filmwerplaats pour ne nommer que ceux-là) le collectif Double Négatif montre des voies à suivre pour assurer que le cinéma sur pellicule puisse se décliner au futur.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
Les maladies cardiovasculaires (MCV) sont la principale cause de mortalité dans les pays industrialisés. L'hypercholestérolémie constitue un facteur de risque majeur pour les MCV. Elle est caractérisée par des niveaux élevés de lipoprotéines de faible densité (LDL, aussi appelé “mauvais cholestérol”). La présence prolongée de haut niveaux de LDL dans la circulation augmente le risque de formation de plaques athérosclérotiques, ce qui peut conduire à l'obstruction des artères et l'infarctus du myocarde. Le LDL est normalement extrait du sang par sa liaison au récepteur du LDL (LDLR) qui est responsable de son endocytose dans les hépatocytes. Des études génétiques humaines ont identifié PCSK9 (proprotein convertase subtilisin/kexin type 9) comme le troisième locus responsable de l'hypercholestérolémie autosomique dominante après le LDLR et son ligand l’apolipoprotéine B-100. PCSK9 interagit avec le LDLR et induit sa dégradation, augmentant ainsi les niveaux plasmatiques de LDL. Les mutations gain de fonction (GF) de PCSK9 sont associées à des niveaux plasmatiques élevés de LDL et à l'apparition précoce des MCV, alors que les mutations perte de fonction (PF) de PCSK9 diminuent le risque de MCV jusqu’à ~ 88% grâce à une réduction du LDL circulant. De ce fait, PCSK9 constitue une cible pharmacologique importante pour réduire le risque de MCV. PCSK9 lie le LDLR à la surface cellulaire et/ou dans l'appareil de Golgi des hépatocytes et provoque sa dégradation dans les lysosomes par un mécanisme encore mal compris. Le but de cette étude est de déterminer pourquoi certaines mutations humaines de PCSK9 sont incapables de dégrader le LDLR tandis que d'autres augmentent sa dégradation dans les lysosomes. Plusieurs mutations GF et PF de PCSK9 ont été fusionnées à la protéine fluorecente mCherry dans le but d'étudier leur mobilité moléculaire dans les cellules hépatiques vivantes. Nos analyses quantitatives de recouvrement de fluorescence après photoblanchiment (FRAP) ont montré que les mutations GF (S127R et D129G) avaient une mobilité protéique plus élevée (> 35% par rapport au WT) dans le réseau trans- Golgien. En outre, nos analyses quantitatives de recouvrement de fluorescence inverse après photoblanchiment (iFRAP) ont montré que les mutations PF de PCSK9 (R46L) avaient une mobilité protéique plus lente (<22% par rapport au WT) et une fraction mobile beaucoup plus petite (<40% par rapport au WT). Par ailleurs, nos analyses de microscopie confocale et électronique démontrent pour la toute première fois que PCSK9 est localisée et concentrée dans le TGN des hépatocytes humains via son domaine Cterminal (CHRD) qui est essentiel à la dégradation du LDLR. De plus, nos analyses sur des cellules vivantes démontrent pour la première fois que le CHRD n'est pas nécessaire à l'internalisation de PCSK9. Ces résultats apportent de nouveaux éléments importants sur le mécanisme d'action de PCSK9 et pourront contribuer ultimement au développement d'inhibiteurs de la dégradation du LDLR induite par PCSK9.
Resumo:
Le domaine de recherche scientifique sur les cyberdépendances présente de multiples définitions de cette pathologie. À partir du matériel empirique issu des débats relatifs à la proposition d'inclure l'addiction à Internet dans le Manuel Diagnostique et Statistique des Troubles mentaux (DSM-V), ce mémoire vise à comprendre les processus sociaux bornant le développement de cette pathologie au regard de la théorie de la biomédicalisation. À cette fin, un premier travail sociohistorique retrace les voies de la biologisation progressive des pratiques sociales de communication en ligne amorcées dès 1980. Un second travail d'analyse de discours systématise ensuite le processus normatif se dégageant des controverses scientifiques liées à son inclusion dans le DSM-V. La recherche menée suggère une interprétation théorique de cet objet située à l'intersection de tendances sociales propres à la société d'information. Le projet d'inclusion révèle la volonté d'une régulation sociale effectuée à partir de la transformation technoscientifique du vivant selon des processus santéistes et néolibéraux. Il donne ainsi à penser les discours scientifiques sur l'addiction à Internet comme avant tout politiques et économiques.
Resumo:
La mort d'un enfant est considérée comme l'une des expériences les plus difficiles à laquelle une personne puisse faire face. Les cliniciens, les hôpitaux et plusieurs organismes ont pour objectif d’aider les parents endeuillés, mais leurs efforts sont compliqués par un manque de recherche dans le domaine du deuil parental. Cette thèse est composée de trois articles, soit deux revues de littérature et une étude empirique, qui tentent de combler cette lacune et d’informer les services en soins palliatifs pédiatriques et les services de soutien au deuil en particulier. Le premier article porte sur les besoins des patients recevant des soins palliatifs pédiatriques et de leurs familles. Par le biais d’un méta-résumé de la recherche descriptive et qualitative récente, 10 domaines de besoins ont été identifiés qui correspondent aux lignes directrices actuelles en soins palliatifs pédiatriques et de fin de vie. Ces besoins sont présentés de manière à être facilement applicables à la pratique. Cependant, les résultats mettent aussi en évidence plusieurs aspects des soins identifiés comme déficitaires ou problématiques qui mériteraient une attention particulière dans le cadre de politiques futures. Dans le deuxième article, l'objectif était de résumer une vaste littérature d'une manière utile aux cliniciens. À cette fin, une synthèse narrative a permis d’intégrer la recherche quantitative et qualitative dans le domaine du deuil parental. Les résultats mettent en évidence les éléments susceptibles de favoriser l’adaptation des parents au deuil, éléments qui suggèrent par le fait même des avenues possibles de soutien et d'intervention. Cette synthèse a cependant cerné dans la littérature certaines failles méthodologiques qui rendent l'applicabilité clinique des résultats difficile. L'objectif du troisième article était d'informer les services de suivi et de soutien au deuil auprès des parents en se renseignant directement auprès de parents endeuillés. À cette fin, 21 parents (dont 8 couples) et 7 membres du personnel impliqués dans des activités de suivi de deuil de 2 hôpitaux pédiatriques ont été interrogés dans le cadre d’une description interprétative, et l'application clinique des résultats a été vérifiée par le biais de réunions avec des collaborateurs de recherche et les décideurs des centres hospitaliers. Les résultats décrivent comment les parents ont fait face à leur détresse dans la phase précoce de leur deuil, ainsi que leurs points de vue sur la façon dont les divers services de suivi de deuil ont été aidants. Les résultats suggèrent que les parents gèrent leurs sentiments intenses de douleur par une alternance de stratégies axées soit sur leur deuil ou sur leur quotidien et que dans plusieurs cas leurs relations avec autrui les ont aidé. Cette étude a également permis d'élucider la façon dont divers services de soutien aide les parents à aborder leur deuil. Les implications cliniques de ces résultats sont discutées ainsi que des recommandations à l’intention de ceux qui sont impliqués dans la provision des services en deuil.
Resumo:
Au-delà des variables climatiques, d’autres facteurs non climatiques sont à considérer dans l’analyse de la vulnérabilité et de l’adaptation au changement et variabilité climatiques. Cette mutation de paradigme place l’agent humain au centre du processus d’adaptation au changement climatique, notamment en ce qui concerne le rôle des réseaux sociaux dans la transmission des nouvelles idées. Dans le domaine de l’agriculture, le recours aux innovations est prôné comme stratégie d’adaptation. L’élaboration et l’appropriation de ces stratégies d’adaptation peuvent être considérées comme des processus d’innovation qui dépendent autant du contexte social et culturel d’un territoire, de sa dynamique, ainsi que de la stratégie elle-même. Aussi, l’appropriation et la diffusion d’une innovation s’opèrent à partir d’un processus décisionnel à l’échelle de l’exploitation agricole, qui à son tour, demande une compréhension des multiples forces et facteurs externes et internes à l’exploitation et les multiples objectifs de l’exploitant. Ainsi, la compréhension de l’environnement décisionnel de l’exploitant agricole à l’échelle de la ferme est vitale, car elle est un préalable incontournable au succès et à la durabilité de toute politique d’adaptation de l’agriculture. Or, dans un secteur comme l’agriculture, il est reconnu que les réseaux sociaux par exemple, jouent un rôle crucial dans l’adaptation notamment, par le truchement de la diffusion des innovations. Aussi, l’objectif de cette recherche est d’analyser comment les exploitants agricoles s’approprient et conçoivent les stratégies d’adaptation au changement et à la variabilité climatiques dans une perspective de diffusion des innovations. Cette étude a été menée en Montérégie-Ouest, région du sud-ouest du Québec, connue pour être l’une des plus importantes régions agricoles du Québec, en raison des facteurs climatiques et édaphiques favorables. Cinquante-deux entrevues ont été conduites auprès de différents intervenants à l’agriculture aux niveaux local et régional. L’approche grounded theory est utilisée pour analyser, et explorer les contours de l’environnement décisionnel des exploitants agricoles relativement à l’utilisation des innovations comme stratégie d’adaptation. Les résultats montrent que les innovations ne sont pas implicitement conçues pour faire face aux changements et à la variabilité climatiques même si l’évolution du climat influence leur émergence, la décision d’innover étant largement déterminée par des considérations économiques. D’autre part, l‘étude montre aussi une faiblesse du capital sociale au sein des exploitants agricoles liée à l’influence prépondérante exercée par le secteur privé, principal fournisseur de matériels et intrants agricoles. L’influence du secteur privé se traduit par la domination des considérations économiques sur les préoccupations écologiques et la tentation du profit à court terme de la part des exploitants agricoles, ce qui pose la problématique de la soutenabilité des interventions en matière d’adaptation de l’agriculture québécoise. L’étude fait ressortir aussi la complémentarité entre les réseaux sociaux informels et les structures formelles de soutien à l’adaptation, de même que la nécessité d’établir des partenariats. De plus, l’étude place l’adaptation de l’agriculture québécoise dans une perspective d’adaptation privée dont la réussite repose sur une « socialisation » des innovations, laquelle devrait conduire à l’émergence de processus institutionnels formels et informels. La mise en place de ce type de partenariat peut grandement contribuer à améliorer le processus d’adaptation à l’échelle locale.
Resumo:
Cette thèse de doctorat porte sur la catalyse à partir de métaux de transition et sur la substitution homolytique aromatique favorisée par une base visant à former de nouvelles liaisons C–C, et à ainsi concevoir de nouvelles structures chimiques. Au cours des vingt dernières années, des nombreux efforts ont été réalisés afin de développer des méthodologies pour la fonctionnalisation de liens C–H, qui soient efficaces et sélectives, et ce à faible coût et en produisant le minimum de déchets. Le chapitre d'introduction donnera un aperçu de la fonctionnalisation directe de liens C–H sur des centres sp2 et sp3. Il sera également discuté dans cette partie de certains aspects de la chimie radicalaire reliés a ce sujet. Les travaux sur la fonctionnalisation d’imidazo[1,5-a]pyridines catalysée par des compleces de ruthénium seront présentés dans le chapitre 2. Malgré l'intérêt des imidazo[1,5-a]azines en chimie médicinale, ces composés n’ont reçu que peu d'attention dans le domaine de la fonctionnalisation de liens C–H. L'étendue de la réaction et l'influence des effets stériques et électroniques seront détaillés. Les cyclopropanes représentent les 10ème cycles carbonés les plus rencontrés dans les petites molécules d’intérêt pharmacologique. Ce sont aussi des intermédiaires de synthèse de choix pour la création de complexité chimique. Malgré de grands progrès dans le domaine de la fonctionnalisation de liens C(sp3)–H, l'étude des cyclopropanes comme substrats dans les transformations directes est relativement nouvelle. Le chapitre trois présentera l'arylation intramoléculaire directe de cyclopropanes. Cette réaction est réalisée en présence de palladium, en quantité catalytique, en combinaison avec des sels d’argent. Des études mécanistiques ont réfuté la formation d'un énolate de palladium et suggéreraient plutôt une étape de métallation - déprotonation concertée. En outre, les cycles de type benzoazepinone à sept chaînons ont été synthétisés par l'intermédiaire d'une séquence d'activation de cyclopropane/ouverture/cyclisation. Une arylation directe intermoléculaire des cyclopropanes a été réalisée en présence d'un auxiliaire de type picolinamide (Chapitre 4). Les deux derniers chapitres de ce mémoire de thèse décriront nos études sur la substitution homolytique aromatique favorisée par une base. Le mécanisme de la réaction de cyclisation intramoléculaire d'halogénures d'aryle, réalisée en présence de tert-butylate de potassium, a été élucidé et se produit via une voie radicalaire (Chapitre 5). La transformation, exempte de métaux de transition, ne nécessite que la présence d’une base et de pyridine comme solvant. Cette réaction radicalaire a été étendue à la cyclisation d'iodures d'alkyle non activés en présence d'un catalyseur à base de nickel et de bis(trimethylsilyl)amidure de sodium comme base (Chapitre 6). Des études de RMN DOSY ont démontré une association entre le catalyseur, la base et le matériel de départ.
Resumo:
La présente étude s’inscrit dans une lignée de travaux de recherche en traductologie réalisés dans un cadre de sémantique cognitive et visant à dégager les modes de conceptualisation métaphorique dans les domaines de spécialité, et plus précisément dans les sciences biomédicales. Notre étude se concentre sur les modes de conceptualisation métaphorique utilisés en neuroanatomie en français, en anglais et en allemand, dans une perspective d’application à la traduction. Nous nous penchons plus spécifiquement sur la description anatomique de deux structures du système nerveux central : la moelle spinale et le cervelet. Notre objectif est de repérer et de caractériser les indices de conceptualisation métaphorique (ICM). Notre méthode s'appuie sur un corpus trilingue de textes de référence traitant de ces structures et fait appel à une annotation sémantique en langage XML, ce qui autorise une interrogation des corpus annotés au moyen du langage XQuery. Nous mettons en évidence que les ICM jouent un rôle prédominant dans la phraséologie et les dénominations propres à la description anatomique du système nerveux, comme c'est le cas en biologie cellulaire et en anatomie des muscles, des nerfs périphériques et des vaisseaux sanguins. Sous l’angle lexical, il faut distinguer les ICM prédicatifs, les ICM non prédicatifs ainsi que les ICM quasi prédicatifs. La plupart des modes de conceptualisation métaphorique préalablement repérés en biologie cellulaire et en anatomie sont également présents dans le domaine plus spécifique de la neuroanatomie. Certains ICM et modes de conceptualisation sont toutefois spécifiques à des éléments des régions étudiées. Par ailleurs, les modes de conceptualisation métaphorique en français, en anglais et en allemand sont semblables, mais sont exprimés par des réseaux lexicaux d'ICM dont la richesse varie. De plus, la composition nominale étant une des caractéristiques de l'allemand, la forme linguistique des ICM présente des caractéristiques spécifiques. Nos résultats mettent en évidence la richesse métaphorique de la neuroanatomie. Cohérents avec les résultats des études antérieures, ils enrichissent cependant la typologie des ICM et soulignent la complexité, sur les plans lexical et cognitif, de la métaphore conceptuelle.
Resumo:
Les façons d'aborder l'étude du spectre du laplacien sont multiples. Ce mémoire se concentre sur les partitions spectrales optimales de domaines planaires. Plus précisément, lorsque nous imposons des conditions aux limites de Dirichlet, nous cherchons à trouver la ou les partitions qui réalisent l'infimum (sur l'ensemble des partitions à un certain nombre de composantes) du maximum de la première valeur propre du laplacien sur tous ses sous-domaines. Dans les dernières années, cette question a été activement étudiée par B. Helffer, T. Hoffmann-Ostenhof, S. Terracini et leurs collaborateurs, qui ont obtenu plusieurs résultats analytiques et numériques importants. Dans ce mémoire, nous proposons un problème analogue, mais pour des conditions aux limites de Neumann cette fois. Dans ce contexte, nous nous intéressons aux partitions spectrales maximales plutôt que minimales. Nous cherchons alors à vérifier le maximum sur toutes les $k$-partitions possibles du minimum de la première valeur propre non nulle de chacune des composantes. Cette question s'avère plus difficile que sa semblable dans la mesure où plusieurs propriétés des valeurs propres de Dirichlet, telles que la monotonicité par rapport au domaine, ne tiennent plus. Néanmoins, quelques résultats sont obtenus pour des 2-partitions de domaines symétriques et des partitions spécifiques sont trouvées analytiquement pour des domaines rectangulaires. En outre, des propriétés générales des partitions spectrales optimales et des problèmes ouverts sont abordés.
Resumo:
À l’intérieur de la cellule sillonnent d’innombrables molécules, certaines par diffusion et d’autres sur des routes moléculaires éphémères, empruntées selon les directives spécifiques de protéines responsables du trafic intracellulaire. Parmi celles-ci, on compte les sorting nexins, qui déterminent le sort de plusieurs types de protéine, comme les récepteurs, en les guidant soit vers des voies de dégradation ou de recyclage. À ce jour, il existe 33 membres des sorting nexins (Snx1-33), tous munies du domaine PX (PHOX-homology). Le domaine PX confère aux sorting nexins la capacité de détecter la présence de phosphatidylinositol phosphates (PIP), sur la surface des membranes lipidiques (ex : membrane cytoplasmique ou vésiculaire). Ces PIPs, produits de façon spécifique et transitoire, recrutent des protéines nécessaires à la progression de processus cellulaires. Par exemple, lorsqu’un récepteur est internalisé par endocytose, la région avoisinante de la membrane cytoplasmique devient occupée par PI(4,5)P2. Ceci engendre le recrutement de SNX9, qui permet la progression de l’endocytose en faisant un lien entre le cytoskelette et le complexe d’endocytose. Les recherches exposées dans cette thèse sont une description fonctionnelle de deux sorting nexins peux connues, Snx11 et Snx30. Le rôle de chacun de ces gènes a été étudié durant l’embryogenèse de la grenouille (Xenopus laevis). Suite aux résultats in vivo, une approche biomoléculaire et de culture cellulaire a été employée pour approfondir nos connaissances. Cet ouvrage démontre que Snx11 est impliqué dans le développement des somites et dans la polymérisation de l’actine. De plus, Snx11 semble influencer le recyclage de récepteurs membranaires indépendamment de l’actine. Ainsi, Snx11 pourrait jouer deux rôles intracellulaires : une régulation actine-dépendante du milieu extracellulaire et le triage de récepteurs actine-indépendant. De son côté, Snx30 est impliqué dans la différentiation cardiaque précoce par l’inhibition de la voie Wnt/β-catenin, une étape nécessaire à l’engagement d’une population de cellules du mésoderme à la ligné cardiaque. L’expression de Snx30 chez le Xénope coïncide avec cette période critique de spécification du mésoderme et le knockdown suscite des malformations cardiaques ainsi qu’à d’autres tissus dérivés du mésoderme et de l’endoderme. Cet ouvrage fournit une base pour des études futures sur Snx11 et Snx30. Ces protéines ont un impact subtil sur des voies de signalisation spécifiques. Ces caractéristiques pourraient être exploitées à des fins thérapeutiques puisque l’effet d’une interférence avec leurs fonctions pourrait être suffisant pour rétablir un déséquilibre cellulaire pathologique tout en minimisant les effets secondaires.
Resumo:
En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.
Resumo:
Depuis l’arrivée de la psychologie dans les universités québécoises en 1872, la psychologie n’a cessé d’évoluer. Alors qu’autrefois aucune loi ne régissait la pratique de la psychothérapie et l’usage du titre de psychothérapeute, le gouvernement du Québec a adopté en 2009, le projet de loi 21. Ce mémoire retrace l’histoire de la psychologie au Québec ainsi que l’histoire de l’Ordre des psychologues du Québec en portant une attention particulière aux changements légaux concernant la règlementation de la pratique de la psychothérapie et l’usage de titres réservés. Afin de dresser un portrait de la psychothérapie au Québec deux ans après l’adoption de la Loi 28 (mieux connue sous le nom de projet de loi 21), trois banques de données de l’Ordre des psychologues ont été utilisées ( 1) «Membres», 2) «Psychothérapeutes» et 3) «Signalement psychothérapie»). De ces trois banques de données, deux sont construites à partir de formulaires remplis par les psychologues et psychothérapeutes. Des 8509 psychologues, 870 psychothérapeutes, et 524 dossiers de pratique illégale (usurpation de titres professionnels et/ou pratique illégale de la psychothérapie) inclus dans l’étude, des différences statistiquement significatives ont été remarquées pour ce qui est du sexe, de l’âge et de la langue maternelle. Toutefois, l’effet de taille était petit. Les différences les plus importantes étaient observables au niveau de la scolarité et de l’exercice de la psychothérapie. Les dispositions de la Loi modifiant le Code des professions et d’autres dispositions législatives dans le domaine de la santé mentale et des relations humaines n’étant en vigueur que depuis deux ans, il serait intéressant de suivre l’évolution de la psychothérapie et de la pratique illégale de la psychothérapie au Québec dans les prochaines années.