960 resultados para Complexité du calcul quantique


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le droit est un puissant outil de transformation du fonctionnement de la société. Andrée Lajoie le sait depuis longtemps. Surtout, elle sait que l’outil juridique, en dépit de son caractère formel, n’agit pas toujours dans la plus grande transparence. Elle connaît la complexité de l’univers juridique et n’a pas hésité à nous guider dans ses confins les plus obscurs. La constitutionnaliste et administrativiste a exploré presque tous les grands axes des pouvoirs publics. Depuis l’exercice des pouvoirs locaux et régionaux, jusqu’à la mise sur pied de grandes réalisations de la Révolution tranquille auxquelles elle a parfois été associée de près, comme les régimes publics d’assurance santé et le système d’enseignement supérieur, ou les enjeux plus récents comme la révision des pouvoirs fiscaux entre les différents ordres de gouvernement et le droit autochtone. Son impressionnant parcours de chercheure et ses réalisations multiples inspirent à la fois admiration et humilité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le droit international prend de plus en plus d’expansion au sein de la société internationale. En fait, grâce à plusieurs acteurs, le droit international s’étend maintenant à de nombreux domaines tels que l’environnement, le droit humanitaire, l’énergie, etc. Or, parallèlement à cette expansion du droit international, on craint maintenant sa fragmentation. Face à ce nouveau phénomène, il y a lieu de se poser la question suivante : s’il y existe un phénomène de fragmentation du droit international, cela signifie-t-il qu’une unité, qui semblait exister a priori dans ce droit, est en train de disparaître, ou bien assistons-nous plutôt à un changement de paradigme? Pour répondre, à cette interrogation, l’auteur analyse tout d’abord les différents facteurs de fragmentation du droit international et observe que ce droit devient de plus en plus complexe, voire même désordonné. Le tout, à l’opposé de la vision traditionnelle d’unité que l’on a du droit. Quels éléments de solution peuvent alors être apportés pour réduire cette fragmentation? Pour le savoir, l’auteur analyse l’unité du droit en fonction de deux paradigmes : le normativisme et le pluralisme juridique. Dans le premier, c'est la hiérarchie des normes qui va donner lieu à un ordre et à une unité du droit. Dans le second, le droit est perçu comme une institution qui apporte la cohésion et il existe autant d’ordres juridiques qu’il y existe d’institutions. C'est dans ce contexte que naît une certaine unité générale grâce à divers types de rapports entre les différents ordres juridiques. Mais en droit international, l’idée d’organisation hiérarchique des normes ne pourrait englober toute la complexité grandissante de la société pluraliste internationale. C'est pourquoi, l’auteur conclu que la fragmentation du droit international signifie un changement de paradigme : ce n’est plus la théorie normativiste qui permet d’englober la toute la complexité naissante du droit international mais bien la théorie du pluralisme juridique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les Acadiens du Nouveau-Brunswick ont un parcours identitaire collectif riche en rebondissements qui les a menés vers une identité singulière solide. Ils se trouvent désormais confrontés au contexte d’une nouvelle réalité qui est la mondialisation. Depuis les dernières décennies, les changements occasionnés par la mondialisation se répercutent dans la conception même que l’on se fait du parler acadien et des pratiques culturelles acadiennes. Le chiac par exemple, auparavant stigmatisé et dévalorisé, devient maintenant porteur de valeurs identitaires modernes rattachées au mélange des cultures et à l’ouverture à l’autre. Toutefois, les contours de l’identité acadienne demeurent flous et sujets aux débats épistémologiques. La situation particulière d’un groupe qui n’a plus de territoire officiellement reconnu a une forte incidence sur les critères d’appartenance que les acteurs peuvent mobiliser pour se définir. Comment expliquer les processus d’identifications et les stratégies identitaires qui définissent l’appartenance au groupe chez les Acadiens? Partagent-ils les mêmes processus identitaires présents dans la littérature sur le sujet? Une connaissance plus approfondie des processus généraux peut-elle aider à mieux saisir et expliquer la complexité d’un groupe sensiblement diasporique dont l’identité et ses contours sont incertains? L’anthropologie en milieu acadien est presque inexistante. D’autre part, l’identité culturelle est un sujet ayant été longuement étudié et débattu, mais qui demande toujours plus de précision. Cette recherche a permis de mieux cerner de quelle façon la représentation de l’acadianité évolue en milieu minoritaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le code source de la libraire développée accompagne ce dépôt dans l'état où il était à ce moment. Il est possible de trouver une version plus à jour sur github (http://github.com/abergeron).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les personnes ayant un trouble du spectre autistique (TSA) manifestent des particularités perceptives. En vision, des travaux influents chez les adultes ont mené à l’élaboration d’un modèle explicatif du fonctionnement perceptif autistique qui suggère que l’efficacité du traitement visuel varie en fonction de la complexité des réseaux neuronaux impliqués (Hypothèse spécifique à la complexité). Ainsi, lorsque plusieurs aires corticales sont recrutées pour traiter un stimulus complexe (e.g., modulations de texture; attributs de deuxième ordre), les adultes autistes démontrent une sensibilité diminuée. À l’inverse, lorsque le traitement repose principalement sur le cortex visuel primaire V1 (e.g., modulations locales de luminance; attributs de premier ordre), leur sensibilité est augmentée (matériel statique) ou intacte (matériel dynamique). Cette dissociation de performance est spécifique aux TSA et peut s’expliquer, entre autre, par une connectivité atypique au sein de leur cortex visuel. Les mécanismes neuronaux précis demeurent néanmoins méconnus. De plus, on ignore si cette signature perceptuelle est présente à l’enfance, information cruciale pour les théories perceptives de l’autisme. Le premier volet de cette thèse cherche à vérifier, à l’aide de la psychophysique et l’électrophysiologie, si la double dissociation de performance entre les attributs statiques de premier et deuxième ordre se retrouve également chez les enfants autistes d’âge scolaire. Le second volet vise à évaluer chez les enfants autistes l’intégrité des connexions visuelles descendantes impliquées dans le traitement des textures. À cet effet, une composante électrophysiologique reflétant principalement des processus de rétroaction corticale a été obtenue lors d’une tâche de ségrégation des textures. Les résultats comportementaux obtenus à l’étude 1 révèlent des seuils sensoriels similaires entre les enfants typiques et autistes à l’égard des stimuli définis par des variations de luminance et de texture. Quant aux données électrophysiologiques, il n’y a pas de différence de groupe en ce qui concerne le traitement cérébral associé aux stimuli définis par des variations de luminance. Cependant, contrairement aux enfants typiques, les enfants autistes ne démontrent pas une augmentation systématique d’activité cérébrale en réponse aux stimuli définis par des variations de texture pendant les fenêtres temporelles préférentiellement associées au traitement de deuxième ordre. Ces différences d’activation émergent après 200 ms et engagent les aires visuelles extrastriées des régions occipito-temporales et pariétales. Concernant la connectivité cérébrale, l’étude 2 indique que les connexions visuelles descendantes sont fortement asymétriques chez les enfants autistes, en défaveur de la région occipito-temporale droite. Ceci diffère des enfants typiques pour qui le signal électrophysiologique reflétant l’intégration visuo-corticale est similaire entre l’hémisphère gauche et droit du cerveau. En somme, en accord avec l’hypothèse spécifique à la complexité, la représentation corticale du traitement de deuxième ordre (texture) est atypiquement diminuée chez les enfants autistes, et un des mécanismes cérébraux impliqués est une altération des processus de rétroaction visuelle entre les aires visuelles de haut et bas niveau. En revanche, contrairement aux résultats obtenus chez les adultes, il n’y a aucun indice qui laisse suggérer la présence de mécanismes supérieurs pour le traitement de premier ordre (luminance) chez les enfants autistes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les sélénoprotéines sont des protéines auxquelles des sélénocystéines, soit le 21e acide aminé, sont incorporées durant leur traduction. Plus précisément, la sélénocystéine (Sec) est un dérivé métabolique de la sérine, mais structurellement équivalent à une cystéine dont on a remplacé l'atome de soufre par du sélénium. Elle se distingue des autres acides aminés puisqu’elle possède sa propre synthétase qui sert à convertir la sérine en Sec alors que le résidu est déjà fixé à l’ARNt. La position d’une Sec sur l’ARNm est indiquée par le codon UGA étant habituellement un signal STOP introduisant le concept de recoding. Grâce à une machinerie métabolique spécifique à l'ARNtSec et à la présence d’un SecIS (Selenocystein Insertion Sequence) sur l’ARNm, ce codon permet la présence d'une Sec dans la protéine. Il est connu que la synthèse débute avec l’acétylation de l’ARNt[Ser]Sec par la seryl-ARNt synthétase (SerRS) afin de donner la seryl-ARNt[Ser]Sec. Cette dernière est subséquemment phosphorylée par l’O-phosphoséryl-ARNt[Ser]Sec kinase (PSTK) qui donnera l’O-phosphoséryl-ARNt[Ser]Sec. Par la suite, un complexe de plusieurs protéines et cofacteurs, agissant comme machinerie pour l’incorporation des Sec durant la traduction, s’associe avec l’ARNt[Ser]Sec puis l’ARNm et, finalement, les composantes du ribosome. Parmi ces protéines, SepSecS catalyse l’étape finale de la synthèse des Sec en convertissant le O-phosphoseryl-ARNt[Ser]Sec en selenocysteinyl-ARNt[Ser]Sec utilisant le sélénophosphate comme source de sélénium. Des études récentes montrent que l’association avec SECp43 serait nécessaire pour que SepSecS joue son rôle et soit ségrégée au noyau pour s’associer à la machinerie de biosynthèse des sélénoprotéines, soit le complexe moléculaire qui reconnaît le codon UGA. Parmi les protéines de la machinerie de biosynthèse des sélénoprotéines que nous avons analysées, il y a eEFSec, RPL30, SPS2, SPS1, SBP2 et NSEP1. Nos résultats d’analyse de la dynamique de l’interaction entre les constituants de la machinerie de biosynthèse et d’incorporation des Sec, confirment plusieurs données de la littérature, mais remettent en question le modèle jusqu’à maintenant établi. Une meilleure compréhension de la dynamique des interactions entre ses constituants et la régulation de cette dynamique permet d’émettre des hypothèses quant au rôle de la machinerie de biosynthèse des sélénoprotéines et de l’importance de sa complexité. Nous avons analysé les interactions in vivo dans des cellules HEK293T au moyen de la technique de Protein-Fragment Complementation Assay (PCA) en couplant, par un clonage moléculaire, les gènes de chacune des protéines d’intérêt avec des fragments des gènes de la protéine luciférase (hRluc). Nous avons ainsi réalisé une fusion en N-terminal et en C-terminal des fragments de luciférase pour chacune des protéines d’intérêt. Puis, nous avons analysé la dynamique des interactions avec les composantes de la machinerie de biosynthèse des Sec. D’autres travaux seront essentiels afin de bâtir sur les résultats présentés dans cette recherche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les régions nordiques à pergélisol seront largement affectées par l'augmentation prévue des températures. Un nombre croissant d’infrastructures qui étaient autrefois construites avec confiance sur des sols gelés en permanence commencent déjà à montrer des signes de détérioration. Les processus engendrés par la dégradation du pergélisol peuvent causer des dommages importants aux infrastructures et entrainer des coûts élevés de réparation. En conséquence, le contexte climatique actuel commande que la planification des projets dans les régions nordiques s’effectue en tenant compte des impacts potentiels de la dégradation du pergélisol. Ce mémoire porte sur l’utilisation de systèmes d’information géographique (SIG) appliqués à l’évaluation du potentiel d’aménagement des territoires situés en milieu de pergélisol. En utilisant une approche SIG, l’objectif est d’élaborer une méthodologie permettant de produire des cartes d'évaluation des risques afin d’aider les collectivités nordiques à mieux planifier leur environnement bâti. Une analyse multi-échelle du paysage est nécessaire et doit inclure l'étude des dépôts de surface, la topographie, ainsi que les conditions du pergélisol, la végétation et les conditions de drainage. La complexité de l'ensemble des interactions qui façonnent le paysage est telle qu'il est pratiquement impossible de rendre compte de chacun d'eux ou de prévoir avec certitude la réponse du système suite à des perturbations. Ce mémoire présente aussi certaines limites liées à l’utilisation des SIG dans ce contexte spécifique et explore une méthode innovatrice permettant de quantifier l'incertitude dans les cartes d'évaluation des risques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce projet s’intéresse aux représentations que fait le cinéma des territoires et à la manière dont ces représentations reflètent des grands enjeux socio-spatiaux. L’espace cinématographique devient une clé d’entrée pour l’analyse géographique. Cette analyse porte plus particulièrement sur les représentations que fait le cinéma québécois contemporain des espaces urbains, ruraux et périurbains. Les récits et les représentations spatiales qui les composent se positionnent souvent sur les enjeux socio-spatiaux, produits par l’histoire nationale et les processus socioéconomiques. La proposition d’analyser les représentations cinématographiques en lien avec le contexte socioéconomique vise deux principaux objectifs conceptuels. D’une part, elle s’intéresse à une meilleure compréhension du façonnement des discours sur l’espace, en ce qui a trait à leur émergence et leur négociation. D’autre part, l’analyse vise une définition élargie des espaces ruraux, urbains et périurbains contemporains, en révélant la complexité et simultanément, la simplification dont ils font l’objet, ainsi que les enjeux qui leurs sont associés. Il s’agit d’exploiter la cinématographie québécoise comme un outil d’analyse qui permet de dévoiler la diversité des discours socio-spatiaux. Des approches quantitatives et qualitatives d’interprétation des discours sont jumelées pour réaliser une analyse complète. La méthode retenue est l’analyse critique du discours (ACD), qui tient compte des rapports idéologiques et vise à la dénaturalisation du discours. En quelques mots, l’analyse consiste en l’identification de relations entre les représentations spatiales et le contexte socioéconomique duquel elles ont émergé. Le cadre opérationnel est constitué d’un corpus de 50 films québécois réalisés entre 1980-2008, « lus » à l’aide d’une grille de lecture originale et analysés avec des méthodes d’analyse spatiale et statistique, combinées à une interprétation qualitative. L’analyse quantitative révèle que le monde urbain et le monde rural sont souvent mis en opposition. Les films font de Montréal le principal pôle urbain, tandis que le reste du Québec est associé au milieu rural. Influencées par les flux culturels et économiques globaux, les représentations montréalaises suggèrent une ville fragmentée et continuellement en mouvement. En opposition à ces représentations urbaines, les cinéastes envisagent l’espace rural comme étant exempt de travail, axé sur le chez-soi et doté d’un esprit communautaire. Il est suggéré que la ville, toujours en croissance, restreint les possibilités d’un développement communautaire fort. Face à une ville transformée par la globalisation et en perte d’authenticité, une forme de régionalisme est observée. Ce dernier associe un ensemble de valeurs à une communauté ou à un territoire, afin de se distinguer devant des forces globalisantes qui semblent homogénéiser les valeurs. Pourtant, l’analyse quantitative laisse voir des contradictions au sein de chaque entité géographique ou milieu. L’analyse qualitative permet d’approfondir l’interprétation et révèle sept grands discours sur les espaces urbains et ruraux. Sont notamment identifiés des discours sur la contestation de la modernité urbaine, sur la réappropriation du milieu de vie par les citoyens et sur un espace rural parfois brutal. Cette analyse amène à conclure que la diversité des discours s’explique par l’hétérogénéité des pratiques socio-spatiales, qui remettent en question l’idée d’un discours national homogène. Cela témoigne de l’évolution et la négociation des regards que nous posons sur nos espaces. Au final, cette thèse contribue à une meilleure utilisation du matériel cinématographique comme support d’étude géographique en proposant une approche méthodologique claire et originale. Sur un plan conceptuel, elle rappelle la complexité et le dynamisme des représentations territoriales québécoises, ainsi que les stratégies de négociation des cinéastes face aux enjeux socio-spatiaux vécus dans la province.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le déroulement du commerce électronique sur un marché global suscite de nombreux questionnements juridiques. D'une part, le droit est conçu à l'échelle nationale en fonction d'un milieu social tributaire de son histoire et de sa culture et d'autre part, le commerce électronique global présente des caractéristiques très singulières : dématérialisation, ubiquité et dimension transfrontalière. Or, une telle confrontation est susceptible de menacer la sécurité juridique des parties dans leurs transactions commerciales en ligne mais aussi la confiance nécessaire à leur développement. Les territoires nationaux, en limitant le pouvoir d’action effectif des États, pose un problème d’échelle : réglementer un phénomène global confronté à des souverainetés territoriales multiples. L’encadrement normatif du commerce électronique global se développe désormais, en partie, à un niveau extra étatique, confirmant l’érosion du monopole des États dans la régulation des rapports juridiques globalisés. La normativité devient le résultat d’un jeu normatif ouvert non seulement quant aux acteurs de la régulation, mais également quant à la qualification des normes impliquées dans cette régulation. Prenant la mesure de la complexité croissante de la normativité, les États interviennent pour tenter de concilier les pratiques nouvelles avec la règle de droit dans une logique de définition des règles du jeu et d’harmonisation du comportement des acteurs économiques. Les systèmes de droit nationaux apprennent à interagir avec des normes multiples de sources différentes. Cette évolution reflète l’articulation des dynamiques de mutation de la normativité avec le phénomène de globalisation du commerce électronique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent travail se penche sur le concept de la conscience de l’environnement d’affaires. Ce concept fait référence à l’importance de la prise en compte par l’employé non-cadre d’un ensemble varié d’éléments d’information composant l’environnement d’affaires. La prise en considération de ces éléments d’information par l’employé aiderait ce dernier non seulement à prendre de meilleures décisions d’affaires, mais aussi à résoudre des problèmes dans un milieu de travail prônant la gestion participative. Seulement deux mémoires et un article scientifique se sont penchés sur la conscience de l’environnement d’affaires. Le mémoire d’Ève St-Onge (2007) a justifié l’existence du concept et a établi une première liste d’indicateurs reflétant les éléments d’information de l’environnement d’affaires. Pour sa part le mémoire de Véronique Gauvreau-Jean (2008) s’est plutôt attardé à la validation initiale d’une échelle de mesure de la conscience de l’environnement d’affaires. À ces deux mémoires s’ajoute l’article scientifique de Haines, Rousseau, Brotheridge et St-Onge (2012) lequel a permis de définir un ensemble d’indicateurs et de dimensions de la conscience de l’environnement d’affaires. Le présent mémoire a pour objectif de vérifier le caractère adéquat du contenu de l’échelle de Véronique Gauvreau-Jean (2008), ce type de vérification «consiste essentiellement à examiner le contenu du test pour s’assurer de sa représentativité en tant qu’échantillon du domaine de comportements à évaluer» (Anastasi, 1982, p.132). Considérant la complexité de la conscience de l’environnement d’affaires, cette vérification s’impose pour mettre au point une échelle de mesure qui peut être généralement applicable dans des milieux de travail ayant recours à une gestion participative. Pour vérifier le caractère adéquat du contenu de l’échelle de mesure de Véronique Gauvreau-Jean (2008), il y a eu l’animation de deux panels de discussion avec une entreprise œuvrant dans le placement de personnel ainsi qu’une autre dans la distribution de produits de papier. Avec les propos des participants des panels, une analyse des données a été effectué pour produire une échelle de mesure reformulée. Cette dernière a ensuite eu un avis favorable par deux professeurs, de différentes facultés d’administration québécoises, concernant la facilité de compréhension et sa capacité de refléter les éléments de l’environnement d’affaires. Il y a finalement eu la comparaison du contenu de l’échelle reformulée et du contenu de l’échelle de Gauvreau-Jean (2008) pour déterminer le caractère adéquat de l’échelle existante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si l’approche par compétences au Canada et aux États-Unis est particulièrement valorisée pour orienter la pratique des professionnels de la santé (PDS) – et en bioéthique clinique –, les travaux permettant de mieux comprendre les fondements psychologiques, ontologiques et philosophiques de ces compétences sont peu présents dans la littérature en bioéthique. Les principaux outils actuellement disponibles se divisent généralement en quatre principales catégories : 1) les documents officiels (codes de déontologie, règlements institutionnels, etc.); 2) les principales théories éthiques (éthique de la discussion, éthique de la vertu, principisme, etc.); 3) les ouvrages de référence scientifiques; 4) les outils de prise de décision éthique. Ces documents sont des incontournables pour les bioéthiciens et les PDS, mais leur disparité, voire leur contenu parfois contradictoire, jumelée à une compréhension limitée de l’éthique, est souvent source de confusion dans les processus décisionnels et peut être la cause de comportements ne répondant pas aux standards éthiques des pratiques professionnelles. Notre recherche constitue une réflexion qui s’inscrit en amont de ces outils dont le caractère pragmatique a le désavantage de simplifier la réflexion théorique au profit de données plus concrètes. Nos travaux visent à développer les bases d’un modèle flexible et inclusif – le modèle de la déontologie réflexive (MDR) – permettant de : 1) poser les principaux repères philosophiques, sociaux et déontologiques des problématiques éthiques rencontrées en pratique; 2) saisir les principales tensions éthiques inhérentes à cette complexité; 3) mieux comprendre, dans une perspective psychologique et développementale, les exigences personnelles et professionnelles qu’impose le statut de professionnel de la santé dans le contexte actuel des soins de santé. Entreprise théorique, ce projet consiste principalement à mettre en relation dynamique un ensemble de dimensions (légale, éthique, clinique, sociale, psychologique) à l’oeuvre dans la rencontre du bioéthicien et du PDS avec la complexité des situations éthiques, en s’inspirant du concept de sensibilité éthique de la « petite éthique » de Paul Ricoeur (1990), du modèle des quatre composantes de Rest (1994) et de la théorie du soi et des modes identitaires d’Augusto Blasi (1993). Ce processus implique trois étapes successives : 1) une mise en ii perspective de la posture épistémologique particulière du bioéthicien et du PDS à la lumière de la « petite éthique » de Ricoeur; 2) une revue de la littérature interdisciplinaire sur le concept de sensibilité éthique afin d’en proposer une définition et de le mettre en perspective avec d’autres compétences éthiques; 3) le développement d’un cadre de référence en matière d’identité éthique professionnelle (professional ethics identity tendencies, PEIT), inspiré de la théorie du soi et des modes identitaires de Blasi. Ces PEIT proposent un repère normatif aux exigences liées à la construction de l'identité en contexte de pratique des PDS et suggèrent des pistes de réflexion quant à la formation et à la recherche en éthique professionnelle. Cette recherche souhaite établir des fondements théoriques pour le développement ultérieur du modèle de la déontologie réflexive (MDR).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire s’inscrit dans une approche émergente en urbanisme qui cherche à mettre en dialogue les théories et les pratiques de l’urbanisme et la pensée du philosophe français Gilles Deleuze. Depuis quelques années, la pensée de Gilles Deleuze (surtout ses travaux coécrits avec Félix Guattari 1972; 1980) commence à s’immiscer dans les débats contemporains en urbanisme. Les travaux de Kim Dovey (2010; 2012), Jean Hillier (2005; 2007; 2011) et Colin McFarlane (2011a; 2011b) constituent les exemples les plus achevés d’une réflexion deleuzienne sur l’urbanisme. À degrés divers, ces auteurs mobilisent surtout cette pensée pour sa capacité à appréhender la complexité, le changement et l’instabilité (assemblage thinking). Pourtant, cette mobilisation de la pensée deleuzienne en urbanisme laisse largement intouchée le projet éthique et politique au coeur de la pensée de Gilles Deleuze. Le projet qui anime ce mémoire est d’explorer ce qu’une éthique deleuzienne peut apporter aux théories et pratiques de l’urbanisme. Cette éthique implique notamment un questionnement radical du cadre étatique dans lequel l’urbanisme s’insère, ce que ce mémoire appelle le «devenir- imperceptible » de l’urbanisme. Un travail empirique, constitué de 14 récits de ville prenant pour objet le territoire du pont Jacques-Cartier à Montréal, accompagne et poursuit cette réflexion théorique. Ces différents récits révèlent le pont Jacques-Cartier comme un lieu producteur de territoires, de mémoires et d’affects. Cette démarche terrain allie certains éléments de l’assemblage thinking et une éthique professionnelle deleuzienne. Elle explore la possibilité d’un rapport réellement sensible entre le territoire, l’urbaniste et les personnes concernées par une entreprise urbanistique.