857 resultados para unité sémiotique temporelle
Resumo:
L’oxyde nitreux (N2O), un puissant gaz à effet de serre (GES) ayant plus de 300 fois le potentiel de réchauffement du dioxyde de carbone (CO2), est produit par des processus microbiens du cycle de l’azote (N). Bien que les eaux de surface continentales soient reconnues comme des sites actifs de transformations de l’azote, leur intégration dans les budgets globaux de N2O comporte de nombreuses incertitudes, dont l’absence des lacs dans ces modèles. Le biome boréal est caractérisé par une des plus grandes densités d’eaux douces au monde, pourtant aucune évaluation exhaustive des émissions aquatiques de N2O n’a à date été conduite dans cette région. Dans la présente étude, nous avons mesuré les concentrations de N2O à travers une large gamme de lacs, rivières, et étangs, dans quatre régions boréales du Québec (Canada), et nous avons calculé les flux eau-air résultants. Les flux nets fluctuent entre -23.1 et 177.9 μmol m-2 J-1, avec une grande variabilité inter-système, inter-régionale, et saisonnière. Étonnamment, 40% des systèmes échantillonnés agissaient en tant que puits de N2O durant l’été, et le réseau d’eaux de surfaces d’une des régions était un net consommateur de N2O. Les concentrations maximales de N2O ont été mesurées en hiver dû à l’accumulation de ce gaz sous la glace. Nous avons estimé que l’émission qui en résulte lors de la fonte des glaces représente 20% des émissions annuelles des eaux douces. Parmi les types d’eaux douces échantillonnées, les lacs sont les principaux responsables du flux aquatique net (jusqu’à 90%), et doivent donc être intégrés dans les budgets globaux de N2O. En se basant sur les données empiriques de la littérature, nous avons éstimé l’émission globale de N2O des eaux douces à 0.78 Tg N (N2O) an-1. Ce chiffre est influencé par les émissions des régions de hautes latitudes (tel que le biome boréal) dont les flux nets varient de positif à négatif constituant -9 à 27 % du total.
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
La popularité des technologies de l’information et des communications entraîne l’augmentation de la preuve retrouvée sous forme numérique lors d’enquêtes policières. Les organisations policières doivent innover afin d’analyser, gérer et tirer profit de cette preuve numérique. En réponse, elles ont constitué des unités spécialisées en criminalité technologique et en analyse judiciaire informatique. La présente étude utilise les théories de l’innovation afin de déterminer comment l’évolution des technologies et des tendances en matière de criminalité technologique influencent les enquêtes et les organisations policières. Cette recherche vise à augmenter les connaissances sur ces unités spécialisées en quantifiant et en qualifiant leur travail quotidien. Avec la collaboration d’une unité policière canadienne spécialisée en analyse judiciaire informatique, une analyse détaillée des demandes d’expertise adressées à leur service a été effectuée. Les résultats indiquent une augmentation de la preuve numérique avec la prévalence de certaines formes de criminalité et de certains appareils électroniques. Les facteurs influençant le délai de traitement sont soulignés ainsi que les stratégies mises de l’avant afin de gérer efficacement l’accroissement des demandes de service. Finalement, des entrevues ont été menées avec certains membres de l’équipe afin de mettre en lumière les défis et les enjeux relatifs à l’implantation et au fonctionnement d’une telle unité. Les principaux enjeux soulevés concernent les environnements technologiques et juridiques, la formation du personnel, la gestion des ressources et les priorités organisationnelles.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) en sciences infirmières, option expertise-conseil
Resumo:
Rapport de projet
Resumo:
L’action humaine dans une séquence vidéo peut être considérée comme un volume spatio- temporel induit par la concaténation de silhouettes dans le temps. Nous présentons une approche spatio-temporelle pour la reconnaissance d’actions humaines qui exploite des caractéristiques globales générées par la technique de réduction de dimensionnalité MDS et un découpage en sous-blocs afin de modéliser la dynamique des actions. L’objectif est de fournir une méthode à la fois simple, peu dispendieuse et robuste permettant la reconnaissance d’actions simples. Le procédé est rapide, ne nécessite aucun alignement de vidéo, et est applicable à de nombreux scénarios. En outre, nous démontrons la robustesse de notre méthode face aux occultations partielles, aux déformations de formes, aux changements d’échelle et d’angles de vue, aux irrégularités dans l’exécution d’une action, et à une faible résolution.
Resumo:
L’objectif de ce mémoire est d’acquérir une connaissance détaillée sur l’évolution spatiale de la température de surface du sol (GST) au mont Jacques-Cartier et sur la réponse thermique de son îlot de pergélisol alpin aux changements climatiques passés et futurs. L’étude est basée sur un ensemble de mesures de température (GST, sous-sol) et de neige, ainsi que des modèles spatiaux de distribution potentielle de la GST et des simulations numériques du régime thermique du sol. Les résultats montrent que la distribution de la GST sur le plateau est principalement corrélée avec la répartition du couvert nival. Au-dessus de la limite de la végétation, le plateau est caractérisé par un couvert de neige peu épais et discontinu en hiver en raison de la topographie du site et l’action des forts vents. La GST est alors couplée avec les températures de l’air amenant des conditions froides en surface. Dans les îlots de krummholz et les dépressions topographiques sur les versants SE sous le vent, la neige soufflée du plateau s’accumule en un couvert très épais induisant des conditions de surface beaucoup plus chaude que sur le plateau dû à l’effet isolant de la neige. En raison de la quasi-absence de neige en hiver et de la nature du substrat, la réponse du pergélisol du sommet du mont Jacques-Cartier au signal climatique est très rapide. De 1978 à 2014, la température du sol a augmenté à toutes les profondeurs au niveau du forage suivant la même tendance que les températures de l’air. Si la tendance au réchauffement se poursuit telle que prévue par les simulations climatiques produites par le consortium Ouranos, le pergélisol pourrait disparaître d’ici à 2040-2050.
Resumo:
La critique a très souvent divisé l’histoire littéraire québécoise en un avant et un après. Chez les auteurs les plus sévères, l’après se présente comme la suite endeuillée des années 1960, son prolongement moribond — topos que l’on retrouve aussi parfois dans la France de l’après mai 1968. L’après se situe donc dans un espace temporel aux contours imprécis. Il aurait un commencement — autour de 1980 — mais pas de fin, car il incarnerait le dénouement sous toutes ses formes, l’épuisement des signes de la culture, la morosité sociétale, la fin des idéologies. Le présent article interroge les présupposés d’une telle mise en récit de la littérature québécoise contemporaine et par là même de la fabrication de la borne temporelle de 1980. L’analyse porte plus précisément sur les dossiers que les revues « Spirale » et « Liberté » ont fait paraître en 1980. Elle vise certes à relever les figures de la fin, de la désillusion et du désenchantement, souvent associées au contexte politique entourant le premier référendum sur la souveraineté du Québec, mais aussi celles d’un certain ressourcement, porté entre autres par le discours féministe dans les pages du magazine culturel « Spirale ». L’examen des dossiers parus en 1980 tend à dégager d’un vaste ensemble de textes un récit minimal, lequel permet de mieux y cerner l’inscription, non pas de l’année 1980, mais des oeuvres et des réflexions sur la culture qu’elle a vu naître.
Resumo:
Les canaux calciques de type L CaV1.2 sont principalement responsables de l’entrée des ions calcium pendant la phase plateau du potentiel d’action des cardiomyocytes ventriculaires. Cet influx calcique est requis pour initier la contraction du muscle cardiaque. Le canal CaV1.2 est un complexe oligomérique qui est composé de la sous-unité principale CaVα1 et des sous-unités auxiliaires CaVβ et CaVα2δ1. CaVβ joue un rôle déterminant dans l’adressage membranaire de la sous-unité CaVα1. CaVα2δ1 stabilise l’état ouvert du canal mais le mécanisme moléculaire responsable de cette modulation n’a pas été encore identifié. Nous avons récemment montré que cette modulation requiert une expression membranaire significative de CaVα2δ1 (Bourdin et al. 2015). CaVα2δ1 est une glycoprotéine qui possède 16 sites potentiels de glycosylation de type N. Nous avons donc évalué le rôle de la glycosylation de type-N dans l’adressage membranaire et la stabilité de CaVα2δ1. Nous avons d’abord confirmé que la protéine CaVα2δ1 recombinante, telle la protéine endogène, est significativement glycosylée puisque le traitement à la PNGase F se traduit par une diminution de 50 kDa de sa masse moléculaire, ce qui est compatible avec la présence de 16 sites Asn. Il s’est avéré par ailleurs que la mutation simultanée de 6/16 sites (6xNQ) est suffisante pour 1) réduire significativement la densité de surface de! CaVα2δ1 telle que mesurée par cytométrie en flux et par imagerie confocale 2) accélérer les cinétiques de dégradation telle qu’estimée après arrêt de la synthèse protéique et 3) diminuer la modulation fonctionnelle des courants générés par CaV1.2 telle qu’évaluée par la méthode du « patch-clamp ». Les effets les plus importants ont toutefois été obtenus avec les mutants N663Q, et les doubles mutants N348Q/N468Q, N348Q/N812Q, N468Q/N812Q. Ensemble, ces résultats montrent que Asn663 et à un moindre degré Asn348, Asn468 et Asn812 contribuent à la biogenèse et la stabilité de CaVα2δ1 et confirment que la glycosylation de type N de CaVα2δ1 est nécessaire à la fonction du canal calcique cardiaque de type L.
Resumo:
Ce texte se veut une analyse critique de l'approche de Thomason (1981) quant à la logique déontique. Alors que l'auteur défend que celle-ci doit être formalisée dans le cadre des logiques temporelles, nous soutenons que la temporalité est implicite à l'obligation, et de fait que la logique déontique n'a pas a être traitée dans la cadre d'une logique temporelle. Nous présenterons d'abord la position de Thomason. Il sera question des exemples dont l'auteur se sert pour justifier son point de vue philosophique et du modèle sémantique qu'il propose pour rendre compte de l'obligation. Il sera ensuite sujet d'une critique des exemples de l'auteur et de son modèle sémantique.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Docteur en psychologie, option psychologie clinique (D.Psy.)
Resumo:
Aim of the present work was to automate CSP process, to deposit and characterize CuInS2/In2S3 layers using this system and to fabricate devices using these films.An automated spray system for the deposition of compound semiconductor thin films was designed and developed so as to eliminate the manual labour involved in spraying and facilitate standardization of the method. The system was designed such that parameters like spray rate, movement of spray head, duration of spray, temperature of substrate, pressure of carrier gas and height of the spray head from the substrate could be varied. Using this system, binary, ternary as well as quaternary films could be successfully deposited.The second part of the work deal with deposition and characterization of CuInS2 and In2S3 layers respectively.In the case of CuInS2 absorbers, the effects of different preparation conditions and post deposition treatments on the optoelectronic, morphological and structural properties were investigated. It was observed that preparation conditions and post deposition treatments played crucial role in controlling the properties of the films. The studies in this direction were useful in understanding how the variation in spray parameters tailored the properties of the absorber layer. These results were subsequently made use of in device fabrication process.Effects of copper incorporation in In2S3 films were investigated to find how the diffusion of Cu from CuInS2 to In2S3 will affect the properties at the junction. It was noticed that there was a regular variation in the opto-electronic properties with increase in copper concentration.Devices were fabricated on ITO coated glass using CuInS2 as absorber and In2S3 as buffer layer with silver as the top electrode. Stable devices could be deposited over an area of 0.25 cm2, even though the efficiency obtained was not high. Using manual spray system, we could achieve devices of area 0.01 cm2 only. Thus automation helped in obtaining repeatable results over larger areas than those obtained while using the manual unit. Silver diffusion on the cells before coating the electrodes resulted in better collection of carriers.From this work it was seen CuInS2/In2S3 junction deposited through automated spray process has potential to achieve high efficiencies.
Resumo:
Unit Commitment Problem (UCP) in power system refers to the problem of determining the on/ off status of generating units that minimize the operating cost during a given time horizon. Since various system and generation constraints are to be satisfied while finding the optimum schedule, UCP turns to be a constrained optimization problem in power system scheduling. Numerical solutions developed are limited for small systems and heuristic methodologies find difficulty in handling stochastic cost functions associated with practical systems. This paper models Unit Commitment as a multi stage decision making task and an efficient Reinforcement Learning solution is formulated considering minimum up time /down time constraints. The correctness and efficiency of the developed solutions are verified for standard test systems
Resumo:
Unit commitment is an optimization task in electric power generation control sector. It involves scheduling the ON/OFF status of the generating units to meet the load demand with minimum generation cost satisfying the different constraints existing in the system. Numerical solutions developed are limited for small systems and heuristic methodologies find difficulty in handling stochastic cost functions associated with practical systems. This paper models Unit Commitment as a multi stage decision task and Reinforcement Learning solution is formulated through one efficient exploration strategy: Pursuit method. The correctness and efficiency of the developed solutions are verified for standard test systems