133 resultados para temps libre


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème de la direction du temps est un problème classique autant en physique qu’en philosophie. Quoiqu’il existe plusieurs façons de s’interroger sur ce problème, l’approche thermodynamique est la plus fréquemment utilisée. Cette approche consiste à considérer la flèche du temps thermodynamique comme la flèche fondamentale de laquelle les autres flèches ne sont que des manifestations. Ce mémoire vise à fournir une analyse philosophique de cette approche. Pour ce faire, nous esquisserons la problématique générale, nous exposerons les différentes approches et théories alternatives visant à résoudre ce problème et nous présenterons la thèse forte soutenant l’approche thermodynamique. Ensuite, nous évaluerons la pertinence du recours à la mécanique statistique et à la cosmologie visant à remédier aux déficiences de cette même approche. Enfin, nous analyserons en quoi cette approche, et plus particulièrement la notion d’entropie, est en mesure de fournir un cadre conceptuel pour la résolution du problème de la flèche du temps.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les champignons mycorhizien à arbuscules (CMA) sont des organismes pouvant établir des symbioses avec 80% des plantes terrestres. Les avantages d'une telle symbiose sont de plus en plus caractérisés et exploités en agriculture. Par contre, jusqu'à maintenant, il n'existe aucun outil permettant à la fois l'identification et la quantification de ces champignons dans le sol de façon fiable et rapide. Un tel outil permettrait, entre autres, de mieux comprendre les dynamiques des populations des endomycorhizes dans le sol. Pour les producteurs d'inoculum mycorhiziens, cela permettrait également d'établir un suivi de leurs produits en champs et d'avoir un contrôle de qualité de plus sur leurs inoculants. C'est ce que nous avons tenté de développer au sein du laboratoire du Dr. Hijri. Depuis environ une trentaine d'années, des outils d'identification et/ou de quantification ont été développés en utilisant les profiles d'acides gras, les isozymes, les anticorps et finalement l'ADN nucléaire. À ce jour, ces méthodes d’identification et de quantification sont soit coûteuses, soit imprécises. Qui plus est, aucune méthode ne permet à la fois la quantification et l’identification de souches particulières de CMA. L’ADN mitochondrial ne présente pas le même polymorphisme de séquence que celui qui rend l’ADN nucléaire impropre à la quantification. C'est pourquoi nous avons analysé les séquences d’ADN mitochondrial et sélectionné les régions caractéristiques de deux espèces de champignons mycorhiziens arbusculaires (CMA). C’est à partir de ces régions que nous avons développé des marqueurs moléculaires sous forme de sondes et d’amorces TaqMan permettant de quantifier le nombre de mitochondries de chacune de ces espèces dans un échantillon d’ADN. Nous avons ensuite tenté de déterminer une unité de quantification des CMA, soit un nombre de mitochondries par spore. C’est alors que nous avons réalisé que la méthode de préparation des échantillons de spores ainsi que la méthode d’extraction d’ADN avaient des effets significatifs sur l’unité de quantification de base. Nous avons donc optimisé ces protocoles, avant d’en e tester l’application sur des échantillons de sol et de racines ayant été inoculés avec chacune des deux espèces cibles. À ce stade, cet outil est toujours semi-quantificatif, mais il permet 9 l’identification précise de deux espèces de CMA compétentes dans des milieux saturés en phosphore inorganique. Ces résultats , en plus d’être prometteurs, ont permis d’augmenter les connaissances méthodologiques reliées à la quantification des CMA dans le sol, et suggèrent qu’à cause de leurs morphologies différentes, l’élaboration d’un protocole de quantification standardisé pour toutes les espèces de CMA demeure un objectif complexe, qui demande de nouvelles études in vivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La violence conjugale peut prendre différentes formes et évoluer à travers le temps. On ne peut écarter la possibilité que les différentes trajectoires soient influencées par le contexte de vie dans lequel la victime se présente. Dans cet ordre d’idée, la perspective des parcours de vie se présente comme un cadre théorique approprié pour comprendre les différents changements temporels qui s’opèrent dans les trajectoires de victimisation en contexte conjugal. Toutefois, le soutien empirique sur les facteurs derrière le nombre d’épisodes de la violence et ses variations au fil du temps est mince; notamment en raison de la rareté des données longitudinales ou rétrospectives requises pour ce type de recherche. Cette étude propose de combler ces lacunes dans l’analyse des trajectoires individuelles des femmes qui ont été victimes de violence conjugale. Plus spécifiquement, elle analyse l’évolution de l’occurrence et de l’intensité de la violence physique à travers le temps. L’échantillon est composé de 53 femmes, toutes victimes de violence conjugale au courant des 36 derniers mois référées par plusieurs milieux (par exemple : maisons d’hébergement, Cour municipale, centres d’aide aux victimes d’acte criminel, centres de thérapie, maisons de transition). Cette recherche est basée sur des données rétrospectives des circonstances entourant la vie de ces femmes au cours des 36 derniers mois. Les trajectoires individuelles ont été reconstruites en utilisant la méthode des calendriers d’histoire de la vie. Cette méthode qui a fait ses preuves dans l’étude des carrières criminelles et de la victimisation permet de situer les trajectoires dans leur contexte de vie et de reconstruire la dynamique derrière les victimisations. L’utilisation de la modélisation de type multiniveaux comme stratégie d’analyse est privilégiée dans cette étude. Combiné avec le calendrier d’histoire de vie, ce type de modèle permet d’examiner les changements dans la chronicité et l’intensité de la violence au sein des trajectoires individuelles des victimes. Les résultats permettent une meilleure compréhension des éléments statiques et dynamiques dernières trajectoires des femmes victimes. Cette recherche se veut avant tout exploratoire et ouvre la porte à une multitude de possibilités à de futures recherches.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les deux premiers récits d'Anne Cuneo, « Gravé au diamant » et « Mortelle maladie », répondent bien peu à la définition traditionnelle de l'autobiographie comme reconstitution d'une individualité cohérente et unique. Ils se présentent plutôt comme la construction conflictuelle d'un sujet en devenir. Le présent article essaiera de montrer comment, dans « Mortelle maladie » , cette construction est liée à une expérience de la temporalité, qui ne se réduit ni à l'image d'un temps objectif (celui que dessinent les ressources narratives du texte), ni à l'illustration de quelque philosophie d'un temps vécu. L'interaction de divers plans de manifestation discursifs du temps (intrigue, narration et déploiement rythmique) offre une « réplique » (Ricoeur) singulière à l'énigme temporelle, qui est discursive, et donc inséparable d'une situation particulière, historique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse comporte trois essais en économie des ressources naturelles. Le Chapitre 2 analyse les effets du stockage d’une ressource naturelle sur le bien-être et sur le stock de celle-ci, dans le contexte de la rizipisciculture. La rizipisciculture consiste à élever des poissons dans une rizière en même temps que la culture du riz. Je développe un modèle d’équilibre général, qui contient trois composantes principales : une ressource renouvelable à accès libre, deux secteurs de production et le stockage du bien produit à partir de la ressource. Les consommateurs stockent la ressource lorsqu’ils spéculent que le prix de cette ressource sera plus élevé dans le futur. Le stockage a un effet ambigu sur le bien-être, négatif sur le stock de ressource au moment où le stockage a lieu et positive sur le stock de ressource dans le futur. Le Chapitre 3 étudie les effects de la migration de travailleurs qualifiés dans un modèle de commerce international lorsqu’il y a présence de pollution. Je développe un modèle de commerce à deux secteurs dans lequel j’introduis les questions de pollution et de migration dans l’objectif de montrer que le commerce interrégional peut affecter le niveau de pollution dans un pays composé de régions qui ont des structures industrielles différentes. La mobilité des travailleurs amplifie les effets du commerce sur le capital environnemental. Le capital environnemental de la région qui a la technologie la moins (plus) polluante est positivement (négativement) affecté par le commerce. De plus, je montre que le commerce interrégional est toujours bénéfique pour la région avec la technologie la moins polluante, ce qui n’est pas toujours le cas pour la région qui a la technologie la plus polluante. Finalement, le Chapitre 4 est coécrit avec Yves Richelle. Dans ce chapitre, nous étudions l’allocation efficace de l’eau d’un lac entre différents utilisateurs. Nous considérons dans le modèle deux types d’irréversibilités : l’irréversibilité d’un investissement qui crée un dommage à l’écosystème et l’irréversibilité dans l’allocation des droits d’usage de l’eau qui provient de la loi sur l’eau (irréversibilité légale). Nous déterminons d’abord la valeur de l’eau pour chacun des utilisateurs. Par la suite, nous caractérisons l’allocation optimale de l’eau entre les utilisateurs. Nous montrons que l’irréversibilité légale entraîne qu’il est parfois optimal de réduire la quantité d’eau allouée à la firme, même s’il n’y a pas de rivalité d’usage. De plus, nous montrons qu’il n’est pas toujours optimal de prévenir le dommage créé par un investissement. Dans l’ensemble, nous prouvons que les irréversibilités entraînent que l’égalité de la valeur entre les utilisateurs ne tient plus à l’allocation optimale. Nous montrons que lorsqu’il n’y a pas de rivalité d’usage, l’eau non utilisée ne doit pas être considérée comme une ressource sans limite qui doit être utilisée de n’importe quelle façon.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La digestion enzymatique des protéines est une méthode de base pour les études protéomiques ainsi que pour le séquençage en mode « bottom-up ». Les enzymes sont ajoutées soit en solution (phase homogène), soit directement sur le gel polyacrylamide selon la méthode déjà utilisée pour l’isolation de la protéine. Les enzymes protéolytiques immobilisées, c’est-à-dire insolubles, offrent plusieurs avantages tels que la réutilisation de l’enzyme, un rapport élevé d’enzyme-sur-substrat, et une intégration facile avec les systèmes fluidiques. Dans cette étude, la chymotrypsine (CT) a été immobilisée par réticulation avec le glutaraldehyde (GA), ce qui crée des particules insolubles. L’efficacité d’immobilisation, déterminée par spectrophotométrie d’absorbance, était de 96% de la masse totale de la CT ajouté. Plusieurs différentes conditions d’immobilisation (i.e., réticulation) tels que la composition/pH du tampon et la masse de CT durant la réticulation ainsi que les différentes conditions d’entreposage tels que la température, durée et humidité pour les particules GA-CT ont été évaluées par comparaison des cartes peptidiques en électrophorèse capillaire (CE) des protéines standards digérées par les particules. Les particules de GA-CT ont été utilisés pour digérer la BSA comme exemple d’une protéine repliée large qui requit une dénaturation préalable à la digestion, et pour digérer la caséine marquée avec de l’isothiocyanate de fluorescéine (FITC) comme exemple d’un substrat dérivé afin de vérifier l’activité enzymatique du GA-CT dans la présence des groupements fluorescents liés au substrat. La cartographie peptidique des digestions par les particules GA-CT a été réalisée par CE avec la détection par absorbance ultraviolet (UV) ou fluorescence induite par laser. La caséine-FITC a été, en effet, digérée par GA-CT au même degré que par la CT libre (i.e., soluble). Un microréacteur enzymatique (IMER) a été fabriqué par immobilisation de la CT dans un capillaire de silice fondu du diamètre interne de 250 µm prétraité avec du 3-aminopropyltriéthoxysilane afin de fonctionnaliser la paroi interne avec les groupements amines. Le GA a été réagit avec les groupements amine puis la CT a été immobilisée par réticulation avec le GA. Les IMERs à base de GA-CT étaient préparé à l’aide d’un système CE automatisé puis utilisé pour digérer la BSA, la myoglobine, un peptide ayant 9 résidus et un dipeptide comme exemples des substrats ayant taille large, moyenne et petite, respectivement. La comparaison des cartes peptidiques des digestats obtenues par CE-UV ou CE-spectrométrie de masse nous permettent d’étudier les conditions d’immobilisation en fonction de la composition et le pH du tampon et le temps de réaction de la réticulation. Une étude par microscopie de fluorescence, un outil utilisé pour examiner l’étendue et les endroits d’immobilisation GA-CT dans l’IMER, ont montré que l’immobilisation a eu lieu majoritairement sur la paroi et que la réticulation ne s’est étendue pas si loin au centre du capillaire qu’anticipée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quels sont les avantages et inconvénients de la publication en libre accès? Quelles sont les revues de médecine dentaire qui autorisent le dépôt d’une copie d’un article publié dans Papyrus afin qu’il soit disponible à tous? Certaines versions d’un article (prépublication, version révisée par les pairs, version finale mise en page par l’éditeur) peuvent être auto-archivées dans Papyrus pour respecter à la fois la politique de l’éditeur et celle de l’organisme qui a subventionné la recherche. De plus, les Bibliothèques de l’UdeM peuvent faire une partie des démarches du dépôt pour vous!

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au cours des années comprises entre 1744 et 1763, le monde atlantique connaît deux guerres majeures. La France et ses colonies américaines sont impliquées dans une lutte acharnée contre l’Empire britannique. Les deux puissances rivales misent alors largement sur la guerre de course. Au-delà des conséquences commerciales et militaires évidentes, la guerre de course perturba aussi les communications transatlantiques. En effet, la prise d’un navire signifiait le plus souvent la perte des lettres qu’il transportait ou, dans le meilleur des cas, leur saisie, interrompant du même coup l’acheminement maritime du courrier. Les archives des Prize Papers, conservant des lettres et autres documents saisis par des corsaires britanniques, incarnent bien cette réalité. On y trouve notamment de nombreuses lettres françaises interceptées dans ces circonstances. Considérant que l’intérêt historique de ce fonds d’archives mérite d’être davantage souligné, cette recherche analysera donc certaines de ces correspondances françaises trouvées au sein des Prize Papers. À travers celles-ci, nous tenterons de reconstituer le système de communication transatlantique français et de ses acteurs en temps de guerre. Nous nous pencherons d’abord sur l’histoire de la constitution de ce fonds d’archives bien particulier, avant de présenter les pratiques de communication employées par les correspondants transatlantiques et les façons dont la guerre a pu les affecter. Il sera ensuite question des informations elles-mêmes qui furent véhiculées dans ce contexte si difficile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le constat duquel part notre idée de colloque est très simple : tout le monde s’accorde à dire que la réflexion sur le numérique est une priorité, mais l’on est encore loin d’avoir une définition précise des méthodes pour développer cette dernière, des œuvres et des auteurs à considérer comme référents dans ce domaine et d’un langage qui puisse être partagé par la communauté des chercheurs et compris par le grand public. L’analyse du monde numérique doit donc être en premier lieu une réflexion sur la culture numérique et non seulement sur les outils. Pareillement, avec le changement des supports, des modalités de publication, des mécanismes de visibilité, d’accessibilité et de circulation des contenus, c’est l’ensemble de notre rapport au savoir qui se trouve remis en question. Il est nécessaire de mettre en place une recherche qui puisse avoir une fonction structurante dans le développement d’une théorie et d’une pensée du numérique mais aussi dans l’implémentation de nouveaux outils de recherche et de visualisation conçus pour les humanités. Le numérique touche désormais l’ensemble de notre vie. Nous vivons dans une société numérique et dans une culture numérique. Les transformations qui ont engendré ce monde numérique se sont produites très rapidement et n’ont pas laissé le temps de développer une réflexion structurée capable de les comprendre. Il est impératif de créer au plus vite des repères théoriques permettant de situer notre culture numérique par rapport à notre vision du monde et aux catégories conceptuelles qui ont structuré nos valeurs, nos traditions et notre imaginaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet article propose un tableau précis des liens étroits qui unirent le cinéma des premiers temps à l’institution théâtrale montréalaise existante. À cette époque, le cinéma joue un rôle central dans les stratégies d’émergence du théâtre francophone qui s’éloigne alors du théâtre anglophone, son rival issu de la ville de New York, tout autant qu’il joue un rôle d’attrait dans un contexte de vive concurrence. Non seulement cela donne-t-il lieu à des scènes mixtes (théâtrales et cinématographiques), mais également à une interprétation plus profonde de deux arts qui aboutit aux premières manifestations d’un cinéma-théâtre québécois.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cet exposé, l’auteur tente de montrer que le sens que le phénoménologue tchèque Jan Patočka (1907-1977) donne primordialement à « l’action » n’est pas un sens politique, mais plutôt un sens phénoménologique et existentiel. Pris sur ce plan d’analyse, le problème de l ’ agir libre doit être posé au départ de la question la plus fondamentale : Comment vivre en vue du sens ? – question qui concerne en premier lieu l’être individuel et non l’agir-ensemble. En analysant le sens que Patočka donne au monde naturel de la vie, au problème du vital, aux termes « possibilité » et « liberté », l’auteur montre que l’action au sens le plus fondamental, que Patočka nomme « action tragique », est ce qui fait de l’existence humaine un mouvement vivant ouvert sur la totalité du monde.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

À première vue, la responsabilité morale serait incompatible avec le déterminisme causal, le premier requérant un contrôle total sur sa personne et le second soutenant que nos actions sont fortement influencées (ou même dictées) par celles des autres. Dans cet article, je me positionnerai contre l’incompatibilisme, dont l’erreur résulte de la conception du libre arbitre. Si une personne s’avère jouer un rôle nécessaire dans l’obtention d’une action ou d’une conséquence, elle en est la cause principale bien qu’elle ne détienne pas un contrôle total sur sa personne. Cet article cherchera à établir les conditions permettant d’identifier les personnes jouant un rôle nécessaire dans la séquence causale et celles qui n’en jouent pas. Dans un premier temps, je reprendrai la théorie de John Martin Fisher et de Mark Ravizza : un individu est moralement responsable lorsqu’il détient un contrôle de guidage. Le contrôle de guidage doit être distingué du contrôle régulateur. Sommairement, le contrôle de guidage est détenu par l’individu étant à la source de la séquence causale, et le contrôle régulateur est détenu par l’individu qui peut influencer l’orientation cette séquence causale. Dans un second temps, j’arguerai, contre Fisher et Ravizza cette fois-ci, que la détention du contrôle régulateur permet également d’imputer une responsabilité morale.