996 resultados para mécanique classique
Resumo:
La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.
Resumo:
Les dinoflagellés sont des eucaryotes unicellulaires que l’on retrouve autant en eau douce qu’en milieu marin. Ils sont particulièrement connus pour causer des fleurs d’algues toxiques nommées ‘marée-rouge’, ainsi que pour leur symbiose avec les coraux et pour leur importante contribution à la fixation du carbone dans les océans. Au point de vue moléculaire, ils sont aussi connus pour leur caractéristiques nucléaires uniques, car on retrouve généralement une quantité immense d’ADN dans leurs chromosomes et ceux-ci sont empaquetés et condensés sous une forme cristalline liquide au lieu de nucléosomes. Les gènes encodés par le noyau sont souvent présents en multiples copies et arrangés en tandem et aucun élément de régulation transcriptionnelle, y compris la boite TATA, n’a encore été observé. L’organisation unique de la chromatine des dinoflagellés suggère que différentes stratégies sont nécessaires pour contrôler l’expression des gènes de ces organismes. Dans cette étude, j’ai abordé ce problème en utilisant le dinoflagellé photosynthétique Lingulodinium polyedrum comme modèle. L. polyedrum est d’un intérêt particulier, car il a plusieurs rythmes circadiens (journalier). À ce jour, toutes les études sur l’expression des gènes lors des changements circadiens ont démontrées une régulation à un niveau traductionnel. Pour mes recherches, j’ai utilisé les approches transcriptomique, protéomique et phosphoprotéomique ainsi que des études biochimiques pour donner un aperçu de la mécanique de la régulation des gènes des dinoflagellés, ceci en mettant l’accent sur l’importance de la phosphorylation du système circadien de L. polyedrum. L’absence des protéines histones et des nucléosomes est une particularité des dinoflagellés. En utilisant la technologie RNA-Seq, j’ai trouvé des séquences complètes encodant des histones et des enzymes modifiant les histones. L polyedrum exprime donc des séquences conservées codantes pour les histones, mais le niveau d’expression protéique est plus faible que les limites de détection par immunodétection de type Western. Les données de séquençage RNA-Seq ont également été utilisées pour générer un transcriptome, qui est une liste des gènes exprimés par L. polyedrum. Une recherche par homologie de séquences a d’abord été effectuée pour classifier les transcrits en diverses catégories (Gene Ontology; GO). Cette analyse a révélé une faible abondance des facteurs de transcription et une surprenante prédominance, parmi ceux-ci, des séquences à domaine Cold Shock. Chez L. polyedrum, plusieurs gènes sont répétés en tandem. Un alignement des séquences obtenues par RNA-Seq avec les copies génomiques de gènes organisés en tandem a été réalisé pour examiner la présence de transcrits polycistroniques, une hypothèse formulée pour expliquer le manque d’élément promoteur dans la région intergénique de la séquence de ces gènes. Cette analyse a également démontré une très haute conservation des séquences codantes des gènes organisés en tandem. Le transcriptome a également été utilisé pour aider à l’identification de protéines après leur séquençage par spectrométrie de masse, et une fraction enrichie en phosphoprotéines a été déterminée comme particulièrement bien adapté aux approches d’analyse à haut débit. La comparaison des phosphoprotéomes provenant de deux périodes différentes de la journée a révélée qu’une grande partie des protéines pour lesquelles l’état de phosphorylation varie avec le temps est reliées aux catégories de liaison à l’ARN et de la traduction. Le transcriptome a aussi été utilisé pour définir le spectre des kinases présentes chez L. polyedrum, qui a ensuite été utilisé pour classifier les différents peptides phosphorylés qui sont potentiellement les cibles de ces kinases. Plusieurs peptides identifiés comme étant phosphorylés par la Casein Kinase 2 (CK2), une kinase connue pour être impliquée dans l’horloge circadienne des eucaryotes, proviennent de diverses protéines de liaison à l’ARN. Pour évaluer la possibilité que quelques-unes des multiples protéines à domaine Cold Shock identifiées dans le transcriptome puissent moduler l’expression des gènes de L. polyedrum, tel qu’observé chez plusieurs autres systèmes procaryotiques et eucaryotiques, la réponse des cellules à des températures froides a été examinée. Les températures froides ont permis d’induire rapidement un enkystement, condition dans laquelle ces cellules deviennent métaboliquement inactives afin de résister aux conditions environnementales défavorables. Les changements dans le profil des phosphoprotéines seraient le facteur majeur causant la formation de kystes. Les phosphosites prédits pour être phosphorylés par la CK2 sont la classe la plus fortement réduite dans les kystes, une découverte intéressante, car le rythme de la bioluminescence confirme que l’horloge a été arrêtée dans le kyste.
Resumo:
En français contemporain, l’hésitation dans le choix entre être et avoir comme auxiliaire dans les formes verbale composées (par ex. le passé composé) de certains verbes intransitifs (par ex. tomber), surtout dans des variétés non standards du français, démonte clairement l’écart qui existe entre le français normé et le français oral quotidien. Cette hésitation, voire l’incertitude, dans le choix de l’auxiliaire n’est pas une particularité arbitraire ou aléatoire de la langue contemporaine; elle s’inscrit plutôt dans une tendance diachronique et pan-romane que l’on a pu observer dans la langue française depuis son émancipation du latin. Notre étude, qui se fonde sur la théorie de la grammaticalisation, propose une analyse du discours grammatical de 1500 – époque où sont apparues les premières grammaires du français – jusqu’à 1789 avec la Révolution française, signalant le moment où la langue se serait stabilisée et aurait adopté sa forme moderne. Nous divisons les trois siècles de notre étude en quatre périodes distinctes, déjà bien établies dans les études historiques. Ce sont : - Le XVIe siècle (1530-1599) - La première moitié de la période classique (1600-1650) - La deuxième moitié de la période classique (1651-1715) - Le Siècle des lumières (1716-1789) Pour chacune des quatre périodes, l’analyse se fait en trois temps. Premièrement, nous recensons les grammairiens, les lexicographes et les essayistes qui se sont prononcés, soit explicitement, soit implicitement, sur l’emploi des auxiliaires être et avoir dans les formes verbales composées (FVC). Nous identifions, là où cela est possible, le dialecte maternel de chaque auteur et son modèle d’usage. Deuxièmement, nous résumons les observations et les commentaires sur l’emploi des auxiliaires dans les FVC formulés par chaque auteur, y compris les tentatives d’explication quant à la variation dans le choix de l’auxiliaire. Finalement, nous rapportons la description de l’emploi des auxiliaires dans les FVC proposée par des historiens de la langue française pour la période en question. Notre étude nous permet de confirmer, en ce qui concerne les FVC, certaines tendances déjà reconnues dans la langue française et d’en identifier d’autres. Également, nous avons pu repérer, voire circonscrire des facteurs qui ont eu une influence sur le choix, tels les verbes plus sensibles à l’alternance, les grammairiens dont l’autorité s’est imposé plus que d’autres ou avant les autres dans l’établissement de la norme sur ce point, les contextes sociaux dans lesquels le débat a eu lieu et la période pendant laquelle les préoccupations sur ce choix était les plus intenses.
Resumo:
S’inscrivant dans le retour des débats entourant l’autofiction, après les années folles que furent les décennies 1960-1970, ce mémoire s’avère une exploration des potentialités de ce « genre » au cinéma. L’auteur cherche, à travers une étude de cas spécifique consacrée à Robert Morin, à déterminer les possibilités et modalités d’actualisation de l’autofiction cinématographique. Pour ce faire, il présente les tenants et aboutissants de ce concept littéraire, pour par la suite l’aborder avec les outils théoriques du cinéma : la narratologie filmique et la conduite du récit, la subjectivité, la caméra intradiégétique et l’hybridité générique des œuvres. S’inspirant de différents travaux réalisés sur le cinéma narratif « classique », l’auteur s’affère à les complémenter afin de rendre compte des spécificités propres à la pratique autofictive.
Resumo:
Le récepteur V2 (V2R) de la vasopressine est un récepteur couplé aux protéines G (RCPG), jouant un rôle fondamental dans le maintien de l’homéostasie hydrosodique. À l’instar de nombreux RCPGs, il est capable d’interagir avec plusieurs types de protéines G hétérotrimériques et possède des voies de signalisation peu explorées aux mécanismes mal compris. Ces voies non canoniques font l’objet des travaux exposés dans ce mémoire. Il s’agit d’explorer les caractéristiques et mécanismes de la signalisation de V2R via G12, et de la voie d’activation d’ERK 1/2 par transactivation du récepteur de l’insulin-like growth factor 1, IGF1R. Par des études de transfert d’énergie de résonance de bioluminescence (BRET), nous exposons la capacité de V2R à interagir avec la sous-unité Gα12 ainsi que la modulation de la conformation de l’hétérotrimère G12 par l’agoniste de V2R, l’arginine-vasopressine. Ces travaux dévoilent également la modulation de l’interaction entre Gα12 et son effecteur classique RhoA, suggérant un engagement de RhoA, ainsi que la potentialisation via Gα12 de la production d’AMP cyclique. À l’aide de diverses méthodes d’inhibition sélective, nos résultats précisent les mécanismes de la transactivation. Ils supportent notamment le rôle initiateur de l’activation de Src par V2R et l’absence d’implication des ligands connus d’IGF1R dans la transactivation. La métalloprotéase MMP 3 apparaît par ailleurs comme un bon candidat pour réguler la transactivation. Ce projet met en lumière des modes de signalisation peu explorés de V2R, dont l’implication physiologique et physiopathologique pourrait s’avérer significative, au-delà d’un apport fondamental dans la compréhension de la signalisation des RCPGs.
Resumo:
Cette recherche doctorale vise à comprendre et interpréter les conditions d’émergence d’un engagement chez des jeunes en situation de marginalité. Des études ont montré que cette situation peut-être un frein important à l’engagement, en raison d’un manque de ressources personnelles, organisationnelles, ou culturelles. Généralement, on a tendance à insister sur le fait que « les jeunes » ne veulent plus militer. Pourtant, d’importantes actions collectives (mouvements étudiants ou communautaires) ou initiatives citoyennes personnelles (écriture de blogues ou signature de pétitions) viennent contredire cette affirmation. En fait, certaines prises de position, dans la sphère privée notamment, échappent à toute analyse classique et sont prises pour un non-engagement, de l’individualisme voire de l’apathie. À partir d’une approche qualitative, exploratoire et interprétative, le dispositif méthodologique de cette thèse privilégie l’observation participante et les entretiens de groupe afin de recueillir le point de vue des jeunes et d’observer un certain nombre d’actions collectives. C’est par le truchement d’organismes communautaires de jeunesse (OCJ) montréalais qu’une centaine de jeunes ont été rencontrés, de septembre 2010 à décembre 2011. L’analyse itérative du corpus de données s’est inspirée des principes de la théorisation ancrée (grounded theory). Un premier niveau d’analyse descriptive a permis de mettre en exergue les contraintes et les conditions d’émergence de l’engagement ainsi que les performances des jeunes en situation de marginalité. Les différentes formes d’engagement ont ensuite été explorées puis mises en perspective dans différents espaces : « original », « intermédiaire » et « négatif ». L’espace original correspond, dans cette thèse, aux moyens d’actions traditionnels (vote, militantisme politique). Nos résultats montrent que le positionnement des jeunes dans ce cadre est très tranché. En fait, non seulement ces modes d’actions émergent rarement mais, s’ils existent, sont le plus souvent soutenus par des intervenants. Dans un autre espace, les jeunes développent parfois des postures particulières, plus radicales ou, au contraire, des postures de retrait, de non-engagement. Cela se rapporte à ce qu’il conviendrait d’appeler l’espace négatif. Dans ce cas, les contraintes de la situation de marginalité poussent certains jeunes à mettre à distance l’engagement et à se situer aux marges des espaces de participation. L’opposition à toutes formes traditionnelles d’engagement amène des jeunes à envisager des moyens d’action plus radicaux que l’on peut également circonscrire dans cet espace négatif. On trouve au final une tout autre dynamique selon laquelle des jeunes prennent position au sein de ce que l’on a appelé l’espace intermédiaire. Les territoires et les modes d’action sont alors aussi éclectiques que la rue, l’entourage personnel, ou la création artistique underground. Si les rapports à l’engagement des jeunes rencontrés sont complexes, parfois ambivalents, ils révèlent toutefois la recherche d’une alternative, la construction de modes d’action particuliers. Une analyse dynamique des contraintes et des conditions d’émergence de l’engagement des jeunes en difficulté montre que leurs prises de position dépassent la simple dialectique engagement/non-engagement. Ainsi, ce que l’on pourrait appeler un « alter-engagement » se dessine à travers les prises de position de ces jeunes, particulièrement au sein de l’espace intermédiaire. Ce concept est développé pour mettre en évidence les formes d’engagement plus intimes, plus communautaires ou plus artistiques. L’alter-engagement se définit alors comme une forme de prise de position critique, impolitique, en réaction à la fois à l’engagement traditionnel, à une posture de retrait et à une posture plus radicale.
Resumo:
Des éléments contributifs à plusieurs facettes de la chirurgie cardiaque ont été étudiés dans la présente thèse. Le premier manuscrit adresse la problématique de l’accident cérébro-vasculaire (ACV) post-opératoire. Nous avons analysé de façon rétrospective la médication prise en pré-opératoire de 6813 patients nécessitant une chirurgie de revascularisation coronarienne. Le but étant d’établir si la présence d’une médication précise (aspirine, inhibiteur de l’enzyme de conversion de l’angiotensine, statine, bêta-bloqueur) peut agir en pré-opératoire pour diminuer le risque d’ACV. En analyse multivariée, la combinaison de la prise de bêta-bloqueurs avec une statine a produit un ratio de cote de 0,37, suggérant un effet protecteur très important. Dans le deuxième manuscrit, je présente une étude ciblant les patients avec insuffisance mitrale ischémique modérée. Trente et un patients furent randomisés entre un traitement par pontages seuls vs pontages et annuloplastie mitrale restrictive. L’insuffisance mitrale a disparu en post-opératoire immédiat en présence de l’annuloplastie alors qu’aucun effet immédiat de la revascularisation coronarienne n’était noté sur l’insuffisance mitrale. Un an suivant la chirurgie, une insuffisance mitrale légère est réapparue chez le groupe ayant subi l’annuloplastie alors que les patients du groupe pontages seuls ont remodelé leur ventricule gauche et diminué l’importance de leur insuffisance mitrale au même niveau que le groupe annuloplastie. Aucun des marqueurs d’évolution clinique, tant au niveau symptomatique qu’au niveau de la survie ne diffère entre les groupes. La troisième étude est un suivi sur 20 ans des patients ayant eu des remplacements valvulaires mitraux ou aortiques avec une prothèse mécanique Carbomedics. Cette étude démontre une excellente survie avec un taux de complications valvulaires hémorragiques, thrombotiques, thrombo-emboliques, et d’endocardite favorable comparé aux autres types de prothèse et une absence de bris mécanique.
Resumo:
Travail créatif / Creative Work
Resumo:
Ce document traite premièrement des diverses tentatives de modélisation et de simulation de la nage anguilliforme puis élabore une nouvelle technique, basée sur la méthode de la frontière immergée généralisée et la théorie des poutres de Reissner-Simo. Cette dernière, comme les équations des fluides polaires, est dérivée de la mécanique des milieux continus puis les équations obtenues sont discrétisées afin de les amener à une résolution numérique. Pour la première fois, la théorie des schémas de Runge-Kutta additifs est combinée à celle des schémas de Runge-Kutta-Munthe-Kaas pour engendrer une méthode d’ordre de convergence formel arbitraire. De plus, les opérations d’interpolation et d’étalement sont traitées d’un nouveau point de vue qui suggère l’usage des splines interpolatoires nodales en lieu et place des fonctions d’étalement traditionnelles. Enfin, de nombreuses vérifications numériques sont faites avant de considérer les simulations de la nage.
Resumo:
Le glaucome est la première cause de cécité irréversible à travers le monde. À présent il n’existe aucun remède au glaucome, et les thérapies adoptées sont souvent inadéquates. La perte de vision causée par le glaucome est due à la mort sélective des cellules rétiniennes ganglionnaires, les neurones qui envoient de l’information visuelle de la rétine au cerveau. Le mécanisme principal menant au dommage des cellules rétiniennes ganglionnaires lors du glaucome n’est pas bien compris, mais quelques responsables putatifs ont été proposés tels que l’excitotoxicité, le manque de neurotrophines, la compression mécanique, l’ischémie, les astrocytes réactifs et le stress oxidatif, parmis d’autres. Indépendamment de la cause, il est bien établi que la perte des cellules rétiniennes ganglionnaires lors du glaucome est causée par la mort cellulaire programmée apoptotique. Cependant, les mécanismes moléculaires précis qui déclenchent l’apoptose dans les cellules rétiniennes ganglionnaires adultes sont mal définis. Pour aborder ce point, j’ai avancé l’hypothèse centrale que l’identification de voies de signalisations moléculaires impliquées dans la mort apoptotique des cellules rétiniennes ganglionnaires offrirait des avenues thérapeutiques pour ralentir ou même prévenir la mort de celles-ci lors de neuropathies oculaires telles que le glaucome. Dans la première partie de ma thèse, j’ai caractérisé le rôle de la famille de protéines stimulatrices d’apoptose de p53 (ASPP), protéines régulatrices de la famille p53, dans la mort apoptotique des cellules rétiniennes ganglionnaires. p53 est un facteur de transcription nucléaire impliqué dans des fonctions cellulaires variant de la transcription à l’apoptose. Les membres de la famille ASPP, soit ASPP1, ASPP2 et iASPP, sont des protéines de liaison de p53 qui régulent l’apoptose. Pourtant, le rôle de la famille des ASPP dans la mort des cellules rétiniennes ganglionnaires est inconnu. ASPP1 et ASPP2 étant pro-apoptotiques, l’hypothèse de cette première étude est que la baisse ciblée de ASPP1 et ASPP2 promouvrait la survie des cellules rétiniennes ganglionnaires après une blessure du nerf optique. Nous avons utilisé un modèle expérimental bien caractérisé de mort apoptotique neuronale induite par axotomie du nerf optique chez le rat de type Sprague Dawley. Les résultats de cette étude (Wilson et al. Journal of Neuroscience, 2013) ont démontré que p53 est impliqué dans la mort apoptotique des cellules rétiniennes ganglionnaires, et qu’une baisse ciblée de ASPP1 et ASPP2 par acide ribonucléique d’interference promeut la survie des cellules rétiniennes ganglionnaires. Dans la deuxième partie de ma thèse, j’ai caractérisé le rôle d’iASPP, le membre anti-apoptotique de la famille des ASPP, dans la mort apoptotique des cellules rétiniennes ganglionnaires. L’hypothèse de cette seconde étude est que la surexpression d’iASPP promouvrait la survie des cellules rétiniennes ganglionnaires après axotomie. Mes résultats (Wilson et al. PLoS ONE, 2014) démontrent que le knockdown ciblé de iASPP exacerbe la mort apoptotique des cellules rétiniennes ganglionnaires, et que la surexpression de iASPP par virus adéno-associé promeut la survie des cellules rétiniennes ganglionnaires. En conclusion, les résultats présentés dans cette thèse contribuent à une meilleure compréhension des mécanismes régulateurs sous-jacents la perte de cellules rétiniennes ganglionnaires par apoptose et pourraient fournir des pistes pour la conception de nouvelles stratégies neuroprotectrices pour le traitement de maladies neurodégénératives telles que le glaucome.
Resumo:
La prévalence de l’arthrose féline augmente fortement avec l’âge atteignant plus de 80% des chats de plus de 11 ans. L'arthrose induit une douleur chronique s’exprimant par des changements de comportements et une diminution de la mobilité. Il n'existe aucun outil validé pour évaluer la douleur chronique associée à l’arthrose chez le chat. Conséquemment, aucun traitement ciblant cette douleur n’a pu être validé. Notre hypothèse de recherche est que la douleur arthrosique chez le chat induit des handicaps fonctionnels, des changements neurophysiologiques et un état d'hypersensibilité qu'il faut évaluer pour quantifier de manière fiable cette douleur et ses répercussions sur la qualité de vie de l'animal. Nos objectifs étaient 1) de développer des outils adaptés aux chats mesurant les handicaps fonctionnels grâce à des outils cinématiques, cinétiques et de suivi de l'activité motrice ; 2) de caractériser les changements fonctionnels et neurophysiologiques secondaires à la douleur arthrosique et de tester avec ces outils un traitement analgésique à base d'anti-inflammatoire non stéroïdien ; 3) de développer une technique adaptée aux chats pouvant caractériser la présence du phénomène de sensibilisation centrale à l'aide d'une évaluation de la sommation temporelle mécanique ; 4) de tester la possibilité de mesurer le métabolisme glucidique cérébral par tomographie d’émission par positrons comme marqueur des changements supraspinaux secondaires à la chronicisation de la douleur. Grâce au développement d’outils de mesure de douleur chronique objectifs, sensibles et répétables nous avons caractérisé la douleur chez les chats arthrosiques. Ils présentent des signes de boiterie quantifiée par une diminution de l’amplitude de l’articulation ou par une diminution de la force verticale d’appui au sol et une diminution de l’activité motrice quotidienne. Ces deux derniers outils ont permis de démontrer qu’un anti-inflammatoire non stéroïdien (le méloxicam) administré pendant quatre semaines réduit la douleur arthrosique. De plus, grâce au développement de tests sensoriels quantitatifs et à l'utilisation d'imagerie cérébrale fonctionnelle, nous avons démontré pour la première fois que la douleur arthrosique conduisait à des modifications du système nerveux central chez le chat. Particulièrement, les chats arthrosiques développent le phénomène de sensibilisation centrale mis en évidence par un seuil de retrait aux filament de von Frey diminué (mesure réflexe) mais aussi par une facilitation de la sommation temporelle mécanique (mesure tenant compte de la composante cognitive et émotionnelle de la douleur). L'augmentation du métabolisme cérébral dans le cortex somatosensoriel secondaire, le thalamus et la substance grise périaqueducale, souligne aussi l'importance des changements liés à la chronicisation de la douleur. Un traitement analgésique adapté à l’arthrose permettra d’améliorer la qualité de vie des chats atteints, offrira une option thérapeutique valide aux praticiens vétérinaires, et profitera aux propriétaires qui retrouveront un chat actif et sociable. La découverte de l'implication du phénomène de sensibilisation central combiné à l'investigation des changements cérébraux secondaires à la douleur chronique associée à l'arthrose par imagerie fonctionnelle ouvre de nouvelles avenues de recherche chez le chat (développement et/ou validation de traitements adaptés à l'état d'hypersensibilité) et les humains (potentiel modèle naturel de douleur chronique associée à l'arthrose).
Resumo:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).
Resumo:
La littérature contient une abondance d’information sur les approches de design impliquant les utilisateurs. Bien que les chercheurs soulèvent de nombreux avantages concernant ces approches, on en sait peu sur ce que les concepteurs des entreprises en pensent. Ce projet a pour but de connaître les perceptions des concepteurs de produits quant aux outils de design participatif puis, d’identifier les opportunités et limites qu’ils évoquent à ce sujet, et finalement, de faire des suggestions d’outils qui faciliteraient l’introduction du design participatif dans un processus de design existant. Après avoir fait un survol du domaine du design participatif et de ses outils, six cas sont étudiés au moyen d’entrevues semi-dirigées conduites auprès de concepteurs de produits. Les données sont analysées à l’aide de cartes cognitives. En ce qui concerne les outils de design participatif, les participants rencontrés perçoivent un accès direct aux besoins des utilisateurs et la possibilité de minimiser les erreurs en début de processus donc, d’éviter les modifications coûteuses qu’elles auraient entraînées. Les obstacles perçus par les concepteurs sont principalement liés à la résistance au changement, à la crainte de laisser créer ou décider les utilisateurs, ainsi qu’au manque de temps et de ressources de l’équipe. Finalement, sur la base des informations collectées, nous suggérons quatre outils de design participatif qui semblent plus intéressants : l’enquête contextuelle, les sondes, les tests de prototypes et l’approche « lead user ». Pour faire suite à ce travail, il serait intéressant d’élaborer un protocole de recherche plus exhaustif pour augmenter la portée des résultats, ou encore, d’appliquer le design participatif, dans une entreprise, afin d’explorer la satisfaction des gens quant aux produits conçus, les effets collatéraux sur les équipes impliquées, l’évolution des prototypes ou le déroulement des ateliers.
Resumo:
Les fortifications de la Grèce du Nord des époques archaïque, classique et hellénistique n’avaient à ce jour jamais fait l’objet d’une étude de synthèse permettant d’identifier, de décrire et de comparer l’ensemble des remparts de cette région. Mises à part les fortifications des grandes cités bien connues grâce aux fouilles archéologiques et à la bonne préservation des structures, telles Amphipolis, Philippi et Thasos, les autres murailles ou systèmes défensifs du Nord de l’Égée sont pratiquement inconnus, d’où l’intérêt d’une telle recherche. Les seuls ouvrages collectifs en lien avec les fortifications du Nord sont ceux de D. Lazaridis qui, en s’intéressant aux peraia de Thasos et Samothrace, nous laissa les plans topographiques de nombreux établissements fortifiés, sans toutefois en faire la description. Ce mémoire propose donc un catalogue raisonné de l’architecture militaire du Nord de la Grèce, complété par un commentaire exhaustif où les vestiges défensifs seront comparés de façon régionale et, lorsque possible, avec l’ensemble du monde grec. Au total, 37 établissements de plusieurs types (cité, phrourion et emporion) font l’objet de cette étude. Cependant, contrairement aux grandes études sur le sujet qui présentent de magnifiques remparts, cet ouvrage est souvent confronté à des vestiges fragmentaires qui certes, laissent place à l’interprétation et à la discussion, mais provoquent aussi une certaine frustration, puisque parfois, l’état des ruines restreint notre travail. Bien que le développement des fortifications grecques pose encore de nombreux problèmes, on constate une évolution architecturale aux périodes archaïque, classique et hellénistique, également attestée en Grèce du Nord. Mais comme le démontre notre étude, les Grecs établis dans ce territoire colonial provenaient de plusieurs régions et ils ont apporté avec eux leurs traditions et des techniques particulières qui ont largement influencées les ouvrages défensifs de leurs nouvelles cités.
Resumo:
Atout pour la mise en œuvre, atout pour l’évaluation et de manière plus évidente atout pour la motivation, le jeu sérieux se veut une solution pédagogique pertinente dans un contexte d’éducation formel ou informel. Au niveau de la recherche, on peut se questionner quant à la valeur pédagogique d’une telle approche ainsi que sur ses principaux atouts. Dans notre projet, nous nous sommes intéressés plus particulièrement à l’apport du scénario pédagogique dans un jeu sérieux. En utilisant le jeu vidéo Mecanika, développé dans le cadre d’une maîtrise en didactique à l’UQAM et basé sur un questionnaire reconnu permettant d’identifier les conceptions des élèves en mécanique, le Force Concept Inventory (HESTENES et al., 1992), nous tenterons d’extraire l'élément principal du scénario pédagogique afin d’en évaluer l’effet sur l’apprentissage. Notre méthodologie a permis de comparer les performances d’élèves de cinquième secondaire ayant utilisé deux versions différentes du jeu. Dans un premier temps, les résultats obtenus confirment ceux observés par Boucher Genesse qui étaient déjà supérieurs à ceux habituellement cités dans les recherches impliquant le FCI. Nous avons aussi observé qu’il semble exister une relation significative entre le plaisir à jouer et l’apprentissage, ainsi qu’une relation significative entre le nombre d’interactions et la version du jeu sur le gain, ce qui confirme que le jeu produit un effet qui s’ajoute à celui du professeur. La présence d’étoiles dans le jeu original a suscité plus d’actions des élèves que la version orientée simulation qui en est démunie, ce qui semble indiquer que l’utilisation d’un jeu sérieux favorise l’implication des élèves. Cependant, l’absence d’effet significatif associé à la suppression des étoiles indique que la scénarisation n’est peut-être pas la principale cause des apprentissages observés dans le jeu Mecanika. Le choix des autres éléments présents dans chaque tableau doit aussi être considéré. Des recherches futures seraient nécessaires pour mieux comprendre ce qui favorise les apprentissages