26 resultados para Investiture des candidats -- États-Unis

em Université de Montréal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction : La néphro-urétérectomie radicale (NUR) représente le traitement primaire pour les patients atteints d’une tumeur des voies excrétrices supérieures (TVES) non métastatique. Une approche ouverte ou laparoscopique peut être considérée. Malgré la présence de plusieurs études comparant les résultats périopératoires et oncologiques entre ces deux approches, aucunes études se basent sur une cohorte populationnelle. Objectif : Notre but est d’évaluer la morbidité péri-opératoire entre la NUR ouverte et laparoscopique en utilisant une cohorte populationnelle. Méthode : Nous avons utilisé la base de donnée Nationwide Inpatient Sample (NIS) pour identifier tous les patients atteints d’une TVES non métastatique, traités par NUR ouverte ou laparoscopique, entre 1998 et 2009. Au total, 7401 (90,8%) et 754 (9,2%) patients ont subi une NUR ouverte et laparoscopique, respectivement. Dans le but de contrôler les différences inhérentes entre les deux groupes, nous avons utilisé une analyse par appariement sur les scores de propension. Ainsi, 3016 (80%) patients avec NUR ouverte étaient appariés à 754 (20%) patients avec NUR laparoscopique. Intervention : Tous les patients ont subi une NUR. Mesures : Les taux de complications intra-opératoires et post-opératoires, de transfusions sanguines, d’hospitalisation prolongée et de mortalité intrahospitalière ont été mesurés. Des analyses de régression logistique on été utilisées pour notre cohorte, après appariement sur les scores de propension. Résultats et Limitations : Pour les patients traités par approche ouverte vs. laparoscopique, les taux suivants furent calculés : transfusions sanguines : 15 vs. 10% (p<0,001); complications intra-opératoires : 4,7 vs. 2,1% (p=0,002); complications post-opératoires : 17 vs. 15% (p=0,24); durée d’hospitalisation prolongée (≥ 5 jours) : 47 vs. 28% (p<0,001); mortalité intra-hospitalière 1,3 vs. 0,7% (p=0,12). Sur les analyses par régression logistique, les patients ayant été traités par NUR laparoscopique avaient moins de chance de recevoir une transfusion sanguine (odds ratio [OR]: 0,6, p<0,001), de subir une complication intra-opératoire (OR: 0,4, p=0,002), et d’avoir une durée prolongée d’hospitalisation (OR: 0,4, p<0,001). Globalement les taux de complications postopératoires étaient équivalents. Toutefois, l’approche laparoscopique était associée à moins de complications pulmonaires (OR: 0,4, p=0,007). Cette étude est limitée par sa nature rétrospective. Conclusion: Après ajustement de potentiels biais de sélection, la NUR par approche laparoscopique est associée à moins de complications intraopératoires et péri-opératoires comparée à la NUR par approche ouverte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire s’intéresse au concept de crise, économique et politique, comme source de changement idéologique et politique. Au travers de l’étude de l’austérité économique, il sera possible d’identifier des différences majeures entre deux épisodes de troubles économiques importants, la Grande Dépression et la Grande Récession. Alors que la Grande Dépression est caractérisée par une double crise, économique et politique, la Grande Récession, elle, demeure un choc essentiellement économique. L’absence de contagion dans le système politique explique la ténacité d’une idée comme l’austérité, de retour depuis la révolution néolibérale des années 80. L’austérité économique s’est adaptée et s’aligne maintenant aux intérêts d’une frange importante de la coalition démocrate. La persistance de l’allure des coalitions politiques depuis le dernier grand réalignement témoigne de l’absence de transformation majeure du mode d’action étatique, ce qui constitue une différence importante entre les deux crises.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Jusqu’à son suicide dans la nuit du 12 au 13 mars 1990, à l’âge de 86 ans, Bruno Bettelheim a marqué l’histoire de la psychologie. Dix-sept ouvrages, dont quatre écrits en collaboration, constituent, pour l’essentiel, sa contribution originale au traitement de l’autisme infantile : une thérapie de milieu, entièrement fondée sur les travaux de Freud. Certains n’hésitent pas, d’ailleurs, à le considérer comme un pionnier de l’histoire de la psychanalyse. Après sa mort, cependant, les langues se délient. D’anciens pensionnaires de l’école orthogénique de Chicago racontent que Bettelheim les battait, témoignages corroborés par d’anciens membres du personnel. Des proches collaborateurs ont même affirmé que Bettelheim mentait tout le temps, mensonges qui ont contribué à créer « le mythe Bettelheim », bien décrit dans l’ouvrage de Pollak (1997/2003), Bruno Bettelheim ou la fabrication d’un mythe. L’objectif de ce texte n’est pas d’aborder l’ensemble des reproches adressés à Bettelheim et à son oeuvre, mais d’examiner les failles de son fameux ouvrage Psychanalyse des contes de fées (Bettelheim, 1976). Salué par deux prix en 1977 (National Book Critics Circle Award et National Book Award), Psychanalyse des contes de fées reste, sans conteste, le plus grand succès populaire de tous ses ouvrages, tant aux États-Unis d’Amérique que dans les pays francophones. En 1995, la New York Public Library plaçait l’ouvrage parmi les 159 « livres du siècle », en dépit des quelques critiques dévastatrices parues dès sa sortie (Arthur, 1978 ; Blos, 1978 ; Heisig, 1977 ; Lurie, 1976 ; Zipes, 1979), dont une accusation de plagiat, laquelle accusation réapparaîtra après sa mort (Dundes, 1991b ; Pollak, 1997/2003). Nous présenterons, d’abord, le point de vue de Bettelheim, quant aux bienfaits, pour les enfants, de s’entendre raconter, par un adulte, les contes de fées. Nous verrons alors, à notre grande surprise, que la valeur qu’il leur accorde, en utilisant une grille psychanalytique, est non seulement largement exagérée, mais contraire aux données empiriques et historiques. Le recours de Bettelheim à la notion du complexe d’OEdipe, largement commentée dans son ouvrage, servira d’exemple. Nous discuterons brièvement, ensuite, du silence de Bettelheim sur les auteurs qui ont écrit sur le sujet et de l’accusation de plagiat portée contre lui.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne et l'Université de Montréal. Composition du jury : M. Laurent Cugny (Université Paris-Sorbonne) ; M. Michel Duchesneau (Université de Montréal) ; M. Philippe Gumplowicz (Université d'Evry-Val d'Essonne) ; Mme Barbara Kelly (Keele University - Royal Northern College of Music) ; M. François de Médicis (Université de Montréal) ; M. Christopher Moore (Université d'Ottawa)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche part d’un double intérêt. Pour la spiritualité, dont on entend beaucoup parler dans un 21e siècle inquiet et en quête de nouveaux repères. Et pour le cinéma, ou 7e art, phénomène culturel phare des temps modernes, qui reflète abondamment les problématiques et questionnements du monde. À une époque où on observe une tendance à l’homogénéisation culturelle, résultat de la mondialisation économique, cette thèse traite du « cinéma transnational ». Elles aussi, les œuvres de ce cinéma traversent l’espace planétaire, mais tout en conservant un solide ancrage local et une singularité artistique. Ce sont en bonne partie les films que l’on retrouve dans les festivals internationaux, tels Cannes, Venise et Berlin. Le cinéma traduisant toutes les interrogations possibles du présent, plusieurs films apparaissent donc porteurs d’un questionnement à portée spirituelle. Et ce, avec des moyens non discursifs, propres à l’art cinématographique. Ils invitent aussi à la rencontre de l’autre. L’objectif de la thèse consiste à décrire comment, par l’analyse d’une douzaine de films transnationaux, on peut dégager de nouveaux concepts sur la façon avec laquelle se vit la spiritualité à notre époque, en relation avec l’autre, et pourquoi cette spiritualité s’accompagne nécessairement de considérations éthiques. Pour accomplir cette tâche, la thèse s’appuie sur les travaux de deux philosophes, Gilles Deleuze (France) et Stanley Cavell (États-Unis), qui ont marqué les études cinématographiques au cours des dernières décennies, par des approches jugées complémentaires pour cette recherche. Le premier a développé sa pensée à partir de ce qui distingue le cinéma des autres arts, et le second, à partir de l’importance du cinéma pour les spectateurs et les spectatrices. Enfin, la thèse se veut une théologie, ou pensée théologico-philosophique, indépendante d’une tradition religieuse et au diapason des réalités du 21e siècle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Projet de recherche réalisé en 2014-2015 avec l'appui du Fonds de recherche du Québec – Société et culture.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Des recherches au Québec (Garon, 2009), en France (Donnat, 2011) et aux États-Unis (Kolb, 2001) confirment un état de fait général: le vieillissement du public de la musique classique. Si le public du répertoire est reconnu pour posséder un haut niveau d’études, pourquoi les étudiants universitaires de nos jours ne sont-ils pas plus présents dans les salles de concert ? Cette étude explore cette problématique d’abord par une recherche historique et par des entrevues auprès de certains des organismes de musique classique à Montréal, et ce afin de comprendre leurs stratégies de développement des publics concernés de 2004 à 2014. Ensuite, par un sondage auprès de 555 étudiants universitaires de la ville, pour faire un portrait de leur relation avec la musique à l’heure actuelle. Notre analyse, appuyée par une bibliographie en sociomusicologie et en sociologie des pratiques culturelles, confirme des tendances comme celle de l’«omnivorisme culturel» et l’éclectisme musical des jeunes universitaires. Elle nous montre aussi une réception positive des œuvres classiques, quoiqu’incompatible avec les critères esthétiques des genres musicaux favoris. À partir de ce paradoxe, nous étudions la force des motivations extramusicales qui les amènent aux concerts, leurs formats préférés, l’impact de l’éducation musicale, l’influence des parents, de l’internet, des nouvelles technologies. Finalement, nous constatons le nombre peu élevé d’initiatives des organismes musicaux dans le milieu universitaire à Montréal qui, pourtant, se montre un bassin au grand potentiel pour le renouvellement des publics de la musique classique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire porte sur le rôle des cercles abolitionnistes dans l’application des lois sur l’émancipation graduelle de l’esclavage dans le nord des États-Unis vers la fin du dix-huitième siècle, principalement à New York et en Pennsylvanie. Plus particulièrement, il met en lumière la façon dont ces cercles, dont les deux plus importants étaient la Pennsylvania Abolition So-ciety (PAS) et le New­York Manumission Society (NYMS), ont fait face aux centaines de réfugiés de Saint-Domingue qui sont arrivés avec leurs esclaves sur la côte est américaine pour fuir la révolution haïtienne dans les années 1790. Dans un premier temps, ce mémoire étudie l’abolition graduelle de l’esclavage dans le nord des États-Unis, débutant avec la Pennsylvanie en 1780, et la formation des cercles abolitionnistes dans les anciennes colonies anglaises. Il sera en outre question des stratégies des antiesclavagistes américains afin de promouvoir l’abolition graduelle de l’esclavage et d’empêcher le mouvement des esclaves et des noirs libres en dehors des frontières de leurs États respectifs. Il sera aussi question de leurs efforts pour resserrer davantage les clauses des lois existantes à ce sujet. Dans un second temps, dans le but de mettre en relief la contribution des cercles abolitionnistes, ce mémoire procède à une étude de cas sur la manière dont les réfugiés de Saint-Domingue ont interagi avec l’esclavage résiduel à New York et en Pennsylvanie et cherche à comprendre pourquoi leurs tentatives d’échapper aux lois sur l’émancipation graduelle se sont heurtées, à plusieurs reprises, aux stratégies des sociétés antiesclavagistes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’utilisation de nanovecteurs pour la livraison contrôlée de principes actifs est un concept commun de nous jours. Les systèmes de livraison actuels présentent encore cependant des limites au niveau du taux de relargage des principes actifs ainsi que de la stabilité des transporteurs. Les systèmes composés à la fois de nanovecteurs (liposomes, microgels et nanogels) et d’hydrogels peuvent cependant permettre de résoudre ces problèmes. Dans cette étude, nous avons développé un système de livraison contrôlé se basant sur l’incorporation d’un nanovecteur dans une matrice hydrogel dans le but de combler les lacunes des systèmes se basant sur un vecteur uniquement. Une telle combinaison pourrait permettre un contrôle accru du relargage par stabilisation réciproque. Plus spécifiquement, nous avons développé un hydrogel structuré intégrant des liposomes, microgels et nanogels séparément chargés en principes actifs modèles potentiellement relargués de manière contrôlé. Ce contrôle a été obtenu par la modification de différents paramètres tels que la température ainsi que la composition et la concentration en nanovecteurs. Nous avons comparé la capacité de chargement et la cinétique de relargage de la sulforhodamine B et de la rhodamine 6G en utilisant des liposomes de DOPC et DPPC à différents ratios, des nanogels de chitosan/acide hyaluronique et des microgels de N-isopropylacrylamide (NIPAM) à différents ratios d’acide méthacrylique, incorporés dans un hydrogel modèle d’acrylamide. Les liposomes présentaient des capacités de chargement modérés avec un relargage prolongé sur plus de dix jours alors que les nanogels présentaient des capacités de chargement plus élevées mais une cinétique de relargage plus rapide avec un épuisement de la cargaison en deux jours. Comparativement, les microgels relarguaient complétement leur contenu en un jour. Malgré une cinétique de relargage plus rapide, les microgels ont démontré la possibilité de contrôler finement le chargement en principe actif. Ce contrôle peut être atteint par la modification des propriétés structurelles ou en changeant le milieu d’incubation, comme l’a montré la corrélation avec les isothermes de Langmuir. Chaque système développé a démontré un potentiel contrôle du taux de relargage, ce qui en fait des candidats pour des investigations futures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A l’heure actuelle, les biocarburants renouvelables et qui ne nuit pas à l'environnement sont à l'étude intensive en raison de l'augmentation des problèmes de santé et de la diminution des combustibles fossiles. H2 est l'un des candidats les plus prometteurs en raison de ses caractéristiques uniques, telles que la densité d'énergie élevée et la génération faible ou inexistante de polluants. Une façon attrayante pour produire la H2 est par les bactéries photosynthétiques qui peuvent capter l'énergie lumineuse pour actionner la production H2 avec leur système de nitrogénase. L'objectif principal de cette étude était d'améliorer le rendement de H2 des bactéries photosynthétiques pourpres non sulfureuses utilisant une combinaison de génie métabolique et le plan des expériences. Une hypothèse est que le rendement en H2 pourrait être améliorée par la redirection de flux de cycle du Calvin-Benson-Bassham envers du système de nitrogénase qui catalyse la réduction des protons en H2. Ainsi, un PRK, phosphoribulose kinase, mutant « knock-out » de Rhodobacter capsulatus JP91 a été créé. L’analyse de la croissance sur des différentes sources de carbone a montré que ce mutant ne peut croître qu’avec l’acétate, sans toutefois produire d' H2. Un mutant spontané, YL1, a été récupéré qui a retenu l'cbbP (codant pour PRK) mutation d'origine, mais qui avait acquis la capacité de se développer sur le glucose et produire H2. Une étude de la production H2 sous différents niveaux d'éclairage a montré que le rendement d’YL1 était de 20-40% supérieure à la souche type sauvage JP91. Cependant, il n'y avait pas d'amélioration notable du taux de production de H2. Une étude cinétique a montré que la croissance et la production d'hydrogène sont fortement liées avec des électrons à partir du glucose principalement dirigés vers la production de H2 et la formation de la biomasse. Sous des intensités lumineuses faibles à intermédiaires, la production d'acides organiques est importante, ce qui suggère une nouvelle amélioration additionnel du rendement H2 pourrait être possible grâce à l'optimisation des processus. Dans une série d'expériences associées, un autre mutant spontané, YL2, qui a un phénotype similaire à YL1, a été testé pour la croissance dans un milieu contenant de l'ammonium. Les résultats ont montré que YL2 ne peut croître que avec de l'acétate comme source de carbone, encore une fois, sans produire de H2. Une incubation prolongée dans les milieux qui ne supportent pas la croissance de YL2 a permis l'isolement de deux mutants spontanés secondaires intéressants, YL3 et YL4. L'analyse par empreint du pied Western a montré que les deux souches ont, dans une gamme de concentrations d'ammonium, l'expression constitutive de la nitrogénase. Les génomes d’YL2, YL3 et YL4 ont été séquencés afin de trouver les mutations responsables de ce phénomène. Fait intéressant, les mutations de nifA1 et nifA2 ont été trouvés dans les deux YL3 et YL4. Il est probable qu'un changement conformationnel de NifA modifie l'interaction protéine-protéine entre NifA et PII protéines (telles que GlnB ou GlnK), lui permettant d'échapper à la régulation par l'ammonium, et donc d'être capable d'activer la transcription de la nitrogénase en présence d'ammonium. On ignore comment le nitrogénase synthétisé est capable de maintenir son activité parce qu’en théorie, il devrait également être soumis à une régulation post-traductionnelle par ammonium. Une autre preuve pourrait être obtenue par l'étude du transcriptome d’YL3 et YL4. Une première étude sur la production d’ H2 par YL3 et YL4 ont montré qu'ils sont capables d’une beaucoup plus grande production d'hydrogène que JP91 en milieu d'ammonium, qui ouvre la porte pour les études futures avec ces souches en utilisant des déchets contenant de l'ammonium en tant que substrats. Enfin, le reformage biologique de l'éthanol à H2 avec la bactérie photosynthétique, Rhodopseudomonas palustris CGA009 a été examiné. La production d'éthanol avec fermentation utilisant des ressources renouvelables microbiennes a été traitée comme une technique mature. Cependant, la plupart des études du reformage de l'éthanol à H2 se sont concentrés sur le reformage chimique à la vapeur, ce qui nécessite généralement une haute charge énergetique et résultats dans les émissions de gaz toxiques. Ainsi le reformage biologique de l'éthanol à H2 avec des bactéries photosynthétiques, qui peuvent capturer la lumière pour répondre aux besoins énergétiques de cette réaction, semble d’être plus prometteuse. Une étude précédente a démontré la production d'hydrogène à partir d'éthanol, toutefois, le rendement ou la durée de cette réaction n'a pas été examiné. Une analyse RSM (méthode de surface de réponse) a été réalisée dans laquelle les concentrations de trois facteurs principaux, l'intensité lumineuse, de l'éthanol et du glutamate ont été variés. Nos résultats ont montré que près de 2 moles de H2 peuvent être obtenus à partir d'une mole d'éthanol, 33% de ce qui est théoriquement possible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La description des termes dans les ressources terminologiques traditionnelles se limite à certaines informations, comme le terme (principalement nominal), sa définition et son équivalent dans une langue étrangère. Cette description donne rarement d’autres informations qui peuvent être très utiles pour l’utilisateur, surtout s’il consulte les ressources dans le but d’approfondir ses connaissances dans un domaine de spécialité, maitriser la rédaction professionnelle ou trouver des contextes où le terme recherché est réalisé. Les informations pouvant être utiles dans ce sens comprennent la description de la structure actancielle des termes, des contextes provenant de sources authentiques et l’inclusion d’autres parties du discours comme les verbes. Les verbes et les noms déverbaux, ou les unités terminologiques prédicatives (UTP), souvent ignorés par la terminologie classique, revêtent une grande importance lorsqu’il s’agit d’exprimer une action, un processus ou un évènement. Or, la description de ces unités nécessite un modèle de description terminologique qui rend compte de leurs particularités. Un certain nombre de terminologues (Condamines 1993, Mathieu-Colas 2002, Gross et Mathieu-Colas 2001 et L’Homme 2012, 2015) ont d’ailleurs proposé des modèles de description basés sur différents cadres théoriques. Notre recherche consiste à proposer une méthodologie de description terminologique des UTP de la langue arabe, notamment l’arabe standard moderne (ASM), selon la théorie de la Sémantique des cadres (Frame Semantics) de Fillmore (1976, 1977, 1982, 1985) et son application, le projet FrameNet (Ruppenhofer et al. 2010). Le domaine de spécialité qui nous intéresse est l’informatique. Dans notre recherche, nous nous appuyons sur un corpus recueilli du web et nous nous inspirons d’une ressource terminologique existante, le DiCoInfo (L’Homme 2008), pour compiler notre propre ressource. Nos objectifs se résument comme suit. Premièrement, nous souhaitons jeter les premières bases d’une version en ASM de cette ressource. Cette version a ses propres particularités : 1) nous visons des unités bien spécifiques, à savoir les UTP verbales et déverbales; 2) la méthodologie développée pour la compilation du DiCoInfo original devra être adaptée pour prendre en compte une langue sémitique. Par la suite, nous souhaitons créer une version en cadres de cette ressource, où nous regroupons les UTP dans des cadres sémantiques, en nous inspirant du modèle de FrameNet. À cette ressource, nous ajoutons les UTP anglaises et françaises, puisque cette partie du travail a une portée multilingue. La méthodologie consiste à extraire automatiquement les unités terminologiques verbales et nominales (UTV et UTN), comme Ham~ala (حمل) (télécharger) et taHmiyl (تحميل) (téléchargement). Pour ce faire, nous avons adapté un extracteur automatique existant, TermoStat (Drouin 2004). Ensuite, à l’aide des critères de validation terminologique (L’Homme 2004), nous validons le statut terminologique d’une partie des candidats. Après la validation, nous procédons à la création de fiches terminologiques, à l’aide d’un éditeur XML, pour chaque UTV et UTN retenue. Ces fiches comprennent certains éléments comme la structure actancielle des UTP et jusqu’à vingt contextes annotés. La dernière étape consiste à créer des cadres sémantiques à partir des UTP de l’ASM. Nous associons également des UTP anglaises et françaises en fonction des cadres créés. Cette association a mené à la création d’une ressource terminologique appelée « DiCoInfo : A Framed Version ». Dans cette ressource, les UTP qui partagent les mêmes propriétés sémantiques et structures actancielles sont regroupées dans des cadres sémantiques. Par exemple, le cadre sémantique Product_development regroupe des UTP comme Taw~ara (طور) (développer), to develop et développer. À la suite de ces étapes, nous avons obtenu un total de 106 UTP ASM compilées dans la version en ASM du DiCoInfo et 57 cadres sémantiques associés à ces unités dans la version en cadres du DiCoInfo. Notre recherche montre que l’ASM peut être décrite avec la méthodologie que nous avons mise au point.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les récepteurs couplés aux protéines G (RCPG) démontrent de plus en plus de capacités à activer des mécanismes jusqu’alors associés à des facteurs de transcription ou des molécules d’adhésion. En effet, de nouvelles preuves rapportent qu’ils pourraient également participer au guidage axonal qui est le mécanisme permettant aux axones de cellules nerveuses de rejoindre leur cible anatomique. Le guidage axonal se fait par l’interaction entre les molécules de guidage et une structure particulière présente à l’extrémité de l’axone, le cône de croissance. Par exemple, les RCPGs participent au guidage des cellules ganglionnaires de la rétine (CGR), dont les axones s’étendent de la rétine jusqu’au noyaux cérébraux associés à la vision. Cet effet est observé avec des RCPGs tels que les récepteurs aux cannabinoïdes (CB1 et CB2) et celui du lysophosphatidylinositol, le GPR55. Les RCPGs GPR91 et GPRG99, respectivement récepteurs au succinate et à l’α-cétoglutarate, se trouvent à la surface de ces CGRs, ce qui en font des candidats potentiels pouvant participer au guidage axonal. Dans ce mémoire, l’effet des ligands de ces récepteurs sur la croissance et la navigation des axones des CGRs fut analysé. L’impact produit par ces récepteurs ainsi que leurs ligands sur la morphologie des cônes de croissance fut déterminé en mesurant leur taille et le nombre de filopodes présents sur ces cônes. Pour évaluer le rôle du succinate et de l’a-cétoglutarate sur la croissance globale des axones de CGRs, la longueur totale des projections axonales d’explants rétiniens a été mesurée. L’effet de ces ligands des récepteurs GPR91 et GPR99 sur le guidage axonal a également été évalué en temps réel à l’aide d’un gradient créé par un micro injecteur placé à 45° et à 100µm du cône de croissance. La distribution in vivo des récepteurs GPR91 et GPR99 sur la rétine a été étudié à l’aide d’expériences d’immunohistochimie. Les résultats obtenus indiquent que l’ajout de 100µM de succinate produit une augmentation de la taille des cônes de croissance et du nombre de filopodes présents à leur surface. Il augmente également la croissance des axones. Ce type de réponse fut également observé lorsque les cellules furent soumises à 200µM d’α-cétoglutarate. Fait à noter, les deux récepteurs n’ont pas d’impact sur le guidage axonal. Ces résultats indiquent donc que les agonistes des récepteurs GPR91 et GPR99 augmentent la croissance des cellules ganglionnaires lorsqu’ils sont présents lors du développement. Par contre, ils n’ont pas d’influence sur la direction prise par les cônes de croissance. Ces nouvelles données sont un pas de plus dans la compréhension des mécanismes qui gèrent et participent au développement et la croissance des CGRs, ce qui pourrait donner de nouvelles cibles thérapeutique pouvant mener à la régénération de nerfs optiques endommagés.