665 resultados para Preuve conceptuelle
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
Les interactions ARN/ARN de type kissing-loop sont des éléments de structure tertiaire qui jouent souvent des rôles clés chez les ARN, tant au niveau fonctionnel que structural. En effet, ce type d’interaction est crucial pour plusieurs processus dépendant des ARN, notamment pour l’initiation de la traduction, la reconnaissance des ARN antisens et la dimérisation de génome rétroviral. Les interactions kissing-loop sont également importantes pour le repliement des ARN, puisqu’elles permettent d’établir des contacts à longue distance entre différents ARN ou encore entre les domaines éloignés d’un même ARN. Ce type d’interaction stabilise aussi les structures complexes des ARN fonctionnels tels que les ARNt, les riborégulateurs et les ribozymes. Comme d’autres ARN fonctionnels, le ribozyme VS de Neurospora contient une interaction kissing-loop importante. Celle-ci est impliquée dans la reconnaissance du substrat et se forme entre la tige-boucle I (stem-loop I, SLI) du substrat et la tige-boucle V (stem-loop V, SLV) du domaine catalytique. Des études biochimiques ont démontré que l’interaction kissing-loop I/V, dépendante du magnésium, implique trois paires de bases Watson-Crick (W-C). De plus, cette interaction est associée à un réarrangement de la structure du substrat, le faisant passer d’une conformation inactive dite unshifted à une conformation active dite shifted. Les travaux présentés dans cette thèse consistent en une caractérisation structurale et thermodynamique de l’interaction kissing-loop I/V du ribozyme VS, laquelle est formée de fragments d’ARN représentant les tige-boucles I et V dérivées du ribozyme VS (SLI et SLV). Cette caractérisation a été réalisée principalement par spectroscopie de résonance magnétique nucléaire (RMN) et par titrage calorimétrique isotherme (isothermal titration calorimetry, ITC) en utilisant différents complexes SLI/SLV dans lesquels l’ARN SLV est commun à tous les complexes, alors que différentes variations de l’ARN SLI ont été utilisées, soit en conformation shiftable ou preshifted. Les données d’ITC ont permis de démontrer qu’en présence d’une concentration saturante de magnésium, l’affinité d’un substrat SLI preshifted pour SLV est extrêmement élevée, rendant cette interaction plus stable que ce qui est prédit pour un duplexe d’ARN équivalent. De plus, l’étude effectuée par ITC montre que des ARN SLI preshifted présentent une meilleure affinité pour SLV que des ARN SLI shiftable, ce qui a permis de calculer le coût énergétique associé au réarrangement de structure du substrat. En plus de confirmer la formation des trois paires de bases W-C prédites à la jonction I/V, les études de RMN ont permis d’obtenir une preuve structurale directe du réarrangement structural des substrats SLI shiftable en présence de magnésium et de l’ARN SLV. La structure RMN d’un complexe SLI/SLV de grande affinité démontre que les boucles terminales de SLI et SLV forment chacune un motif U-turn, ce qui facilite l’appariement W-C intermoléculaire. Plusieurs autres interactions ont été définies à l’interface I/V, notamment des triplets de bases, ainsi que des empilements de bases. Ces interactions contribuent d’ailleurs à la création d’une structure présentant un empilement continu, c’est-à-dire qui se propage du centre de l’interaction jusqu’aux bouts des tiges de SLI et SLV. Ces études de RMN permettent donc de mieux comprendre la stabilité exceptionnelle de l’interaction kissing-loop I/V au niveau structural et mènent à l’élaboration d’un modèle cinétique de l’activation du substrat par le ribozyme VS. En considérant l’ensemble des données d’ITC et de RMN, l’étonnante stabilité de l’interaction I/V s’explique probablement par une combinaison de facteurs, dont les motifs U-turn, la présence d’un nucléotide exclu de la boucle de SLV (U700), la liaison de cations magnésium et l’empilement de bases continu à la jonction I/V.
Resumo:
L’importance que revêt la localisation des entreprises dans le fonctionnement et la compétitivité de celles-ci amène à porter l’attention sur la problématique des clusters et l’influence qu’ils peuvent avoir sur la production de connaissances. À travers une perspective théorique qui repose sur la prise en compte des travaux portant sur les districts industriels et ceux plus récents, sur les clusters, nous mettons en évidence une évolution conceptuelle du phénomène de la localisation des entreprises. La place qu’occupe la production de connaissances constitue désormais un élément central des travaux récents qui portent sur les districts et les clusters industriels. Notre examen des dynamiques de fonctionnement de ces systèmes permet d’affirmer que la production de connaissances est une caractéristique centrale des clusters ainsi que leur principal avantage compétitif. Étroitement liée aux réseaux inter-organisationnels, la production de connaissances n’est pas un phénomène naturel, elle découle des mécanismes intrinsèques aux clusters, qu’on cherche à mettre en évidence. Pour ce faire, notre méthodologie qui emprunte les principaux repères de l’analyse stratégique des organisations conduit à l’étude du fonctionnement concret d’un réseau local d’innovation, constitué d’entreprises et d’institutions locales présentes dans le cluster montréalais de l’aérospatiale. Un réseau constitué par l’intermédiaire du Consortium de Recherche et d’Innovation en Aérospatiale du Québec, une institution centrale dans le fonctionnement de ce cluster.
Resumo:
Comment pouvons-nous représenter un principe moral universel de manière à le rendre applicable à des cas concrets ? Ce problème revêt une forme aiguë dans la philosophie morale d’Emmanuel Kant (1724-1804), tout particulièrement dans sa théorie du jugement moral, car il soutient que l’on doit appliquer la loi morale « suprasensible » à des actions dans le monde sensible afin de déterminer celles-ci comme moralement bonnes ou mauvaises. Kant aborde ce problème dans un chapitre de la Critique de la raison pratique (1788) intitulé « De la typique de la faculté de juger pratique pure » (KpV 5: 67-71). La première partie de la thèse vise à fournir un commentaire compréhensif et détaillé de ce texte important, mais trop peu étudié. Étant donné que la loi morale, en tant qu’Idée suprasensible de la raison, ne peut pas être appliquée directement à des actions dans l’intuition sensible, Kant a recours à une forme particulière de représentation indirecte et symbolique. Sa solution inédite consiste à fournir la faculté de juger avec un « type [Typus] », ou analogue formel, de la loi morale. Ce type est la loi de la causalité naturelle : en tant que loi, il sert d’étalon formel pour tester l’universalisabilité des maximes ; et, en tant que loi de la nature, il peut aussi s’appliquer à toute action dans l’expérience sensible. Dès lors, le jugement moral s’effectue par le biais d’une expérience de pensée dans laquelle on se demande si l’on peut vouloir que sa maxime devienne une loi universelle d’une nature contrefactuelle dont on ferait soi-même partie. Cette expérience de pensée fonctionne comme une « épreuve [Probe] » de la forme des maximes et, par ce moyen, du statut moral des actions. Kant soutient que tout un chacun, même « l’entendement le plus commun », emploie cette procédure pour l’appréciation morale. De plus, la typique prémunit contre deux menaces à l’éthique rationaliste de Kant, à savoir l’empirisme (c’est-à-dire le conséquentialisme) et le mysticisme. La seconde partie de la thèse se penche sur l’indication de Kant que la typique « ne sert que comme un symbole ». Un bon nombre de commentateurs ont voulu assimiler la typique à la notion d’« hypotypose symbolique » présentée dans le § 59 de la Critique de la faculté de juger (1790). La typique serait un processus de symbolisation esthétique consistant à présenter, de façon indirecte, la représentation abstraite de la loi morale sous la forme d’un symbole concret et intuitif. Dans un premier chapitre, cette interprétation est présentée et soumise à un examen critique qui cherche à montrer qu’elle est erronée et peu judicieuse. Dans le second chapitre, nous poursuivons une voie d’interprétation jusqu’ici ignorée, montrant que la typique a de plus grandes continuités avec la notion d’« anthropomorphisme symbolique », une procédure strictement analogique introduite auparavant dans les Prolégomènes (1783). Nous en concluons, d’une part, que la typique fut un moment décisif dans l’évolution de la théorie kantienne de la représentation symbolique et que, d’autre part, elle marque la réalisation, chez Kant, d’une conception proprement critique de la nature et de la morale comme deux sphères distinctes, dont la médiation s’opère par le biais des concepts de loi et de conformité à la loi (Gesetzmässigkeit). En un mot, la typique s’avère l’instrument par excellence du « rationalisme de la faculté de juger ».
Resumo:
Cette recherche, par une approche deleuzienne – mais aussi inspirée des écrits de Guattari, Foucault, Bergson et Massumi –, vise à approfondir le bagage théorique associé au concept de résistance. En abordant les notions de néolibéralisme, de démocratie et de société de contrôle, une conceptualisation particulière du pouvoir est développée : non pas un biopouvoir – ayant force sur la vie – mais un ontopouvoir – ayant force de vie. À travers l’étude micropolitique du mouvement de contestation Occupy (2011), les concepts d’affect, d’événement, de préfiguration, de devenir, de structure et de consensus sont travaillés, et des possibilités résistantes sont cartographiées et théorisées. En somme, cette synthèse conceptuelle élabore une forme de résistance radicalement autre que celles préconisées par la démocratie (néo)libérale représentative ou la politique identitaire : une résistance intrinsèquement créative tournée vers ce qui n’existe pas encore.
Resumo:
Ce mémoire traite de la question suivante: est-ce que les cobordismes lagrangiens préservent l'uniréglage? Dans les deux premiers chapitres, on présente en survol la théorie des courbes pseudo-holomorphes nécessaire. On examine d'abord en détail la preuve que les espaces de courbes $ J $-holomorphes simples est une variété de dimension finie. On présente ensuite les résultats nécessaires à la compactification de ces espaces pour arriver à la définition des invariants de Gromov-Witten. Le troisième chapitre traite ensuite de quelques résultats sur la propriété d'uniréglage, ce qu'elle entraine et comment elle peut être démontrée. Le quatrième chapitre est consacré à la définition et la description de l'homologie quantique, en particulier celle des cobordismes lagrangiens, ainsi que sa structure d'anneau et de module qui sont finalement utilisées dans le dernier chapitre pour présenter quelques cas ou la conjecture tient.
Resumo:
La déficience intellectuelle (DI) définit un groupe de conditions génétiquement hétérogènes caractérisées par l’apparition de troubles cognitifs précoces chez l’enfant. Elle affecte 1-3% de la population dans les pays industrialisés. La prévalence de la DI est beaucoup plus élevée ailleurs dans le monde, en raison de facteurs sociodémographiques comme le manque de ressources dans le système de santé, la pauvreté et la consanguinité. Des facteurs non-génétiques sont mis en cause dans l’étiologie de la DI ; on estime qu’environ 25% des cas de DI sont d’origine génétique. Traditionnellement, les bases moléculaires de la DI ont été investiguées par des analyses cytogénétiques, les approches de cartographie génétique et le séquençage de gènes candidats ; ces techniques de génétiques classiques sont encore mises à rude épreuve dans l’analyse de maladies complexes comme la DI. La DI liée à l’X a été particulièrement étudiée, avec plus d’une centaine de gènes identifiés uniquement sur le chromosome X. Des mutations hétérozygotes composites sont mises en évidence dans la DI autosomique, dans le contexte d’unions non-consanguines. L’occurrence de ce type de mutations est rare, chez des individus non-apparentés, de sorte que les mutations dominantes de novo sont plus courantes. Des mutations homozygotes sont attendues dans les populations consanguines ou marquées par un effet fondateur. En fait, les bases moléculaires de la DI autosomique ont été presqu’exclusivement étudiées dans le contexte de populations avec des forts taux de consanguinité. L’origine de la DI demeure encore inconnue dans environ 60 % des cas diagnostiqués. En l’absence de facteurs environnementaux associés à la DI chez ces individus, il est possible d’envisager que des facteurs génétiques non identifiés entrent en jeu dans ces cas de DI inexpliqués. Dans ce projet de recherche, nous voulions explorer l’origine génétique de la DI, dans vingt familles, où une transmission de la maladie selon un mode autosomique récessif est suspectée. Nous avons mis de l’avant les techniques de séquençage de nouvelle génération, afin de mettre en évidence les déterminants génétiques de la DI, à l’échelle du génome humain. En fait, nous avons priorisé la capture et le séquençage de l’exome; soient la totalité des régions codantes du génome humain et leurs sites d’épissage flanquants. Dans nos analyses, nous avons ciblé les variants qui ne sont pas rapportés trop fréquemment dans différentes bases de données d’individus contrôles, ces mutations rares cadrent mieux avec une condition comme la DI. Nous avons porté une attention particulière aux mutations autosomiques récessives (homozygotes et hétérozygotes composites) ; nous avons confirmé que ces mutations ségréguent avec une transmission récessive dans la famille à l’étude. Nous avons identifié des mutations dans des gènes pouvant être à l’origine de la DI, dans certaines des familles analysées ; nous avons validé biologiquement l'impact fonctionnel des mutations dans ces gènes candidats, afin de confirmer leur implication dans la pathophysiologie de la DI. Nous avons élucidé les bases moléculaires de la DI dans huit des familles analysées. Nous avons identifié le second cas de patients avec syndrome de cassure chromosomique de Varsovie, caractérisé par des dysfonctions de l’ARN hélicase DDX11. Nous avons montré qu’une perte de l’activité de TBC1D7, une des sous-unités régulatrice du complexe TSC1-TSC2, est à l’origine de la pathologie dans une famille avec DI et mégalencéphalie. Nous avons mis en évidence des mutations pathogéniques dans le gène ASNS, codant pour l’Asparagine synthétase, chez des patients présentant une microcéphalie congénitale et une forme progressive d’encéphalopathie. Nous avons montré que des dysfonctions dans la protéine mitochondriale MAGMAS sont mises en cause dans une condition caractérisée par un retard prononcé dans le développement associé à une forme sévère de dysplasie squelettique. Nous avons identifié une mutation tronquant dans SPTBN2, codant pour la protéine spinocerebellar ataxia 5, dans une famille avec DI et ataxie cérébelleuse. Nous avons également mis en évidence une mutation dans PIGN, un gène impliqué dans la voie de biosynthèse des ancres de glycosylphosphatidylinositol , pouvant être à l’origine de la maladie chez des individus avec épilepsie et hypotonie. Par ailleurs, nous avons identifié une mutation - perte de fonction dans CLPB, codant pour une protéine chaperonne mitochondriale, dans une famille avec encéphalopathie néonatale, hyperekplexie et acidurie 3-méthylglutaconique. Le potentiel diagnostic des techniques de séquençage de nouvelle génération est indéniable ; ces technologies vont révolutionner l’univers de la génétique moléculaire, en permettant d’explorer les bases génétiques des maladies complexes comme la DI.
Resumo:
La popularité des technologies de l’information et des communications entraîne l’augmentation de la preuve retrouvée sous forme numérique lors d’enquêtes policières. Les organisations policières doivent innover afin d’analyser, gérer et tirer profit de cette preuve numérique. En réponse, elles ont constitué des unités spécialisées en criminalité technologique et en analyse judiciaire informatique. La présente étude utilise les théories de l’innovation afin de déterminer comment l’évolution des technologies et des tendances en matière de criminalité technologique influencent les enquêtes et les organisations policières. Cette recherche vise à augmenter les connaissances sur ces unités spécialisées en quantifiant et en qualifiant leur travail quotidien. Avec la collaboration d’une unité policière canadienne spécialisée en analyse judiciaire informatique, une analyse détaillée des demandes d’expertise adressées à leur service a été effectuée. Les résultats indiquent une augmentation de la preuve numérique avec la prévalence de certaines formes de criminalité et de certains appareils électroniques. Les facteurs influençant le délai de traitement sont soulignés ainsi que les stratégies mises de l’avant afin de gérer efficacement l’accroissement des demandes de service. Finalement, des entrevues ont été menées avec certains membres de l’équipe afin de mettre en lumière les défis et les enjeux relatifs à l’implantation et au fonctionnement d’une telle unité. Les principaux enjeux soulevés concernent les environnements technologiques et juridiques, la formation du personnel, la gestion des ressources et les priorités organisationnelles.
Resumo:
Plusieurs études ont démontré que la consommation d’un repas à indice glycémique bas (LGI) avant un exercice physique favorisait l’oxydation des lipides, diminuait les épisodes d’hypoglycémie et améliorait la performance. Par contre, d’autres recherches n’ont pas observé ces bénéfices. Le but de cette étude consiste à démontrer l’impact de l’ingestion de déjeuners avec différents indices glycémiques (IG) sur la performance en endurance de cyclistes de haut niveau. Dix cyclistes masculins ont complété trois protocoles attribués de façon aléatoire, séparés par un intervalle minimal de sept jours. Les trois protocoles consistaient en une épreuve contre la montre, soit trois heures après avoir consommé un déjeuner à indice glycémique bas ou élevé contenant 3 grammes de glucides par kg de poids corporel, soit à compléter l’exercice à jeun. Les résultats obtenus pour le temps de course montrent qu’il n’y pas de différence significative entre les protocoles. Par contre, on observe que le nombre de révolutions par minute (RPM) est significativement plus élevé avec le protocole à indice glycémique élevé (HGI) (94,3 ± 9,9 RPM) comparativement au protocole à jeun (87,7 ± 8,9 RPM) (p<0,005). Au niveau de la glycémie capillaire, on observe que durant l’exercice, au temps 30 minutes, la glycémie est significativement supérieure avec le protocole à jeun (5,47 ± 0,76 mmol/L) comparé à HGI (4,99 ± 0,91 mmol/L) (p<0,002). Notre étude n’a pas permis de confirmer que la consommation d’un repas LGI avant un exercice physique améliorait la performance physique de façon significative. Cependant, notre recherche a démontré que la diversité des protocoles utilisés pour évaluer l’impact de l’indice glycémique sur la performance physique pouvait occasionner des variations positives dans les temps de courses. Par conséquent, il s’avère nécessaire de faire d’autres recherches qui reproduisent les situations de compétition de l’athlète soit la course contre la montre.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
Le présent mémoire expose les effets de pratiques d’écriture de textes identitaires plurilingues, soutenues par des ateliers d’expression théâtrale plurilingues, sur le rapport à l’écrit d’élèves immigrants allophones nouvellement arrivés en situation de grand retard scolaire au secondaire, et ce, tout au long d’une recherche-action visant le développement de l’écriture. Puis, ces effets sont comparés avec ceux de pratiques traditionnelles d’enseignement de l’écriture. Un groupe expérimental et un groupe contrôle ont participé à cette étude de cas multiples. Des observations participantes et des entretiens individuels semi-dirigés ont permis de dresser le portrait du rapport à l’écrit des huit élèves participant à notre recherche. Dans ce rapport à l’écrit est considéré l’engagement dans la littératie des élèves, un concept clé à prendre en compte en didactique des langues secondes. Nous proposons ainsi l’étude d’une nouvelle notion : le rapport à l’écrit teinté du concept d’engagement (RÉ+). Les résultats de ce mémoire confirment la pertinence de l’approche novatrice mise en place, qui agit sur les quatre dimensions du RÉ+ (affective, praxéologique, conceptuelle et axiologique). Elle permet notamment aux élèves d’associer l’écriture à des sentiments positifs et les amène à poser un regard réflexif sur la langue associé au développement d’habiletés métacognitives. De tels effets sont différents de ceux de pratiques traditionnelles d’enseignement de l’écriture, qui ne paraissent pas en mesure d’engager pleinement, affectivement et cognitivement, les élèves dans les tâches d’écriture.
Resumo:
Cette étude vise à étoffer la base conceptuelle du phénomène de sens au travail permettant ainsi de mieux le comprendre et le saisir et cherche à proposer un modèle théorique pouvant expliquer le processus de construction d’un sens au travail par des infirmières libanaises. Le sens au travail se présente à la fois en tant qu’un processus qui émerge suite aux interactions dynamiques qui s’établissent entre un individu et son contexte de travail et en tant que produit qui s’exprime chez un individu au niveau de la satisfaction, la motivation, l’engagement organisationnel, la performance et la santé au travail. L’étude de ce phénomène constitue une nouvelle voie permettant d’apporter un nouvel éclairage à un contexte de travail, tel que le contexte libanais, qui souffre depuis des années d’un problème de pénurie du personnel infirmier. L’interactionnisme symbolique a constitué le cadre épistémologique et méthodologique de cette étude qui a adopté une approche qualitative par théorisation ancrée. L’étude s’est déroulée dans une région libanaise auprès de neuf infirmières hospitalières exerçant la profession dans des contextes de travail variés. La collecte des données a été faite par le recours à des entrevues individuelles enregistrées sur un support numérique ; les données ont été par la suite transcrites et analysées suivant la méthode constructiviste de Charmaz (2006). Les résultats ont permis de proposer un modèle théorique qui explique le processus de construction d’un sens au travail qui découle des interactions des infirmières libanaises avec les divers éléments du contexte de travail. Ces infirmières ont développé une représentation du contexte de travail marquée par une surcharge de travail, un salaire inadéquat, des opportunités de développement et d’avancement professionnel réduites, un comportement inéquitable des supérieurs et un image publique dévalorisée de l’infirmière. Ce contexte porte atteinte à la satisfaction de trois objectifs recherchés par ces infirmières à travers leur travail et qui sont : 1) prendre soin des patients ; 2) subvenir à ses propres besoins ; et 3) être reconnue en tant que professionnelle. Afin de construire un sens au travail et composer avec ce contexte contraignant, les infirmières se basent sur leurs ressources intrinsèques. La valorisation de l’infirmière et du travail infirmier, la satisfaction de l’effort fourni, l’actualisation de soi et l’avancement professionnel permettent à ces infirmières de protéger et de maintenir un sens au travail. Finalement, il était possible de conceptualiser le sens au travail en tant qu’un phénomène subjectif et multidimensionnel, nourri par l’amour de la profession et se traduisant par un travail qui répond aux attentes des infirmières. Les connaissances qui ont émergé de cette étude pourront aider à mettre en place des stratégies personnelles et contextuelles permettant de favoriser le processus de construction de sens au travail chez les infirmières libanaises afin de réduire le problème de pénurie du personnel infirmier. Des pistes de recherches sont encore avancées et des recommandations pour la formation sont proposées.
Resumo:
Cette recherche s’inscrit dans le cadre du programme interdisciplinaire de recherche Ignis Mutat Res et vise à éclairer l’univers de l’architecture sur la capacité des toits à amener des solutions efficaces aux problématiques environnementales dans un contexte urbain dense et à forte consommation d'énergie. La volonté de réduire l’empreinte écologique des villes est aujourd’hui bien présente dans le monde de la recherche architecturale et urbaine, ayant ainsi fait preuve de son importance. Pourtant, la réduction de l’empreinte écologique des villes serait une approche globale difficile à quantifier économiquement. Le manque de méthodologie standardisée fait en sorte que les travaux sur le sujet empruntent des démarches qui ne dépassent pas l’étape exploratoire. Dans ce contexte, le mémoire porte sur l’élaboration d’un dispositif numérique d’évaluation des potentialités des toits horizontaux comme un outil d’aide à la décision pour les interventions urbaines visant à réduire l’empreinte écologique des villes, en utilisant le cas de Montréal. Ce type de toit est abordé comme un territoire d’investigation en contribution aux préoccupations reliées à la gestion de l’eau et à l’atténuation des îlots de chaleur. Plus précisément, cette recherche porte sur trois secteurs de l'île de Montréal. Ces échantillons correspondent à deux types de formes urbaines (résidentielle versus commerciale ou industrielle) et sont décortiqués dans le but d’identifier les déséquilibres entre les espaces naturels, faisant référence aux espaces verts (jardins, parcs et canopées) et les étendues minérales occasionnées par l'urbanisation. Ces rapports exprimés en superficies démontrent que l’étendue des toits est assez considérable pour compenser le manque d’espaces naturels en ville. La végétalisation des toits à l’échelle d’un secteur pourrait donc atténuer considérablement les problèmes environnementaux liés aux îlots de chaleur et à la gestion du ruissellement des eaux de pluie. La stratégie consistant à explorer l'hypothèse des 50 % de naturel versus 50 % de minéral pourrait contribuer grandement à l’autonomisation des villes et à la diminution de leurs dépendances vis-à-vis des ressources fossiles.
Resumo:
Pourquoi la Roumanie ne réussit-elle pas l'épreuve de l'européanisation? À travers quatre études de cas, ce mémoire souligne le rôle central occupé par les partis politiques dans le développement de la corruption en Roumanie. En adaptant la théorie créée par Jonathan Pinto, Carrie Leana et Frits Pil, il montre que le type le plus répandu de corruption n'est pas individuel mais organisationnel et se propage à travers les partis. Plus précisément, les études de cas servent à comparer les phénomènes de l'Organisation d'Individus Corrompus (OIC) et de l'Organisation Corrompue (OC). En Roumanie, les deux types coexistent. Toutefois, de par l’étendue et la puissance supérieure dans le fonctionnement de l’OC par rapport à l’OIC, de par la définition et tel que le montre l'analyse des études de cas choisies, le phénomène de l’Organisation Corrompue dans sa manifestation à l'intérieur des partis politiques a plus de conséquences négatives sur le développement économique, politique et sur l’intégration européenne du pays comprise dans le sens d’idéal démocratique et de modernité dont tout État membre de l’Union européenne tente de se rapprocher.
L’intégration de la prise de décision visuo-motrice et d’action motrice dans des conditions ambiguës
Resumo:
La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.