366 resultados para Jeu vidéo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis plus de trente ans, le Québec a pris position en faveur d’un mouvement de professionnalisation de l’enseignement. Ce choix se fonde principalement sur la volonté de moderniser les systèmes d’éducation grâce à la consolidation d’une expertise du travail enseignant. Elle a donc engendré toute une série de réformes visant à formaliser les pratiques des enseignants, à les appuyer sur les résultats de la recherche et à développer un code de pratiques responsables. Cependant, dans une perspective critique, ce processus de professionnalisation entre également dans le cadre plus large d’un processus de rationalisation étatique. Il exige de plus en plus des enseignants de faire preuve d’efficacité à tout prix, mais cette exigence ne tient pas compte de l’incertitude de l’action et des valeurs en jeu. Cette thèse vise à analyser, à partir d’une perspective critique, la conception de l’articulation entre la recherche et la pratique sous-jacente au mouvement de professionnalisation en vue de proposer une conception plus adéquate en regard de la réalité pratique: la traduction. Ce faisant, la thèse propose une réflexion sur le rôle transformateur du langage dans tout processus de transmission des connaissances. L’approche de la traduction s'inspire à la fois de la tradition herméneutique et de la critique poststructuraliste, et remet en question la conception du langage comme véhicule transparent de la pensée et des connaissances. À la lumière de ce cadre, je propose une analyse empirique (analyses discursive et sémiotique) des mécanismes de traduction qui assurent le passage du monde de la recherche vers le monde de l'enseignement. Cette partie repose sur une analyse comparative d’articles provenant de la revue Vie pédagogique, analyse qui se concentre sur les processus de traductions à l’œuvre dans trois concepts centraux du mouvement de professionnalisation : la pratique réflexive, la compétence et la collaboration. Elle met en lumière la manière dont le cadre actuel de la professionnalisation est réducteur, totalisant, et nie le caractère traductif du langage et de l’activité humaine. Je conclus avec une reconceptualisation de l'enseignement en tant que traduction et acte de profession de foi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chimie est un sujet difficile étant donné ses concepts nombreux et souvent peu intuitifs. Mais au-delà de ces difficultés d’ordre épistémologique, l’apprentissage de la chimie peut être en péril lorsqu’il s’appuie sur des fondations instables, mêlées de conceptions alternatives. Les conceptions alternatives sont les représentations internes, tacites, des étudiants, qui sont en désaccord avec la théorie scientifiquement acceptée. Leur présence dans leur esprit peut nuire à la compréhension conceptuelle, et elle peut mener les étudiants à expliquer le comportement de la matière incorrectement et à faire des prédictions inexactes en chimie. Les conceptions alternatives sont réputées répandues et difficiles à repérer dans un cadre traditionnel d’enseignement. De nombreuses conceptions alternatives en chimie ont été mises en lumière par différents groupes de chercheurs internationaux, sans toutefois qu’une telle opération n’ait jamais été réalisée avec des étudiants collégiaux québécois. Le système d’éducation postsecondaire québécois représentant un contexte unique, une étude des difficultés particulières de ces étudiants était nécessaire pour tracer un portrait juste de la situation. De plus, des chercheurs proposent aujourd’hui de ne pas faire uniquement l’inventaire des conceptions, mais de s’attarder aussi à étudier comment, par quel processus, elles mènent à de mauvaises prédictions ou explications. En effet, ils soutiennent que les catalogues de conceptions ne peuvent pas être facilement utilisés par les enseignants, ce qui devrait pourtant être la raison pour les mettre en lumière : qu’elles soient prises en compte dans l’enseignement. Toutefois, aucune typologie satisfaisante des raisonnements et des conceptions alternatives en chimie, qui serait appuyée sur des résultats expérimentaux, n’existe actuellement dans les écrits de recherche. Plusieurs chercheurs en didactique de la chimie suggèrent qu’une telle typologie est nécessaire et devrait rendre explicites les modes de raisonnement qui mettent en jeu ces conceptions alternatives. L’explicitation du raisonnement employé par les étudiants serait ainsi la voie permettant de repérer la conception alternative sur laquelle ce raisonnement s’appuie. Le raisonnement est le passage des idées tacites aux réponses manifestes. Ce ne sont pas toutes les mauvaises réponses en chimie qui proviennent de conceptions alternatives : certaines proviennent d’un manque de connaissances, d’autres d’un agencement incorrect de concepts pourtant corrects. Comme toutes les sortes de mauvaises réponses d’étudiants sont problématiques lors de l’enseignement, il est pertinent de toutes les considérer. Ainsi, ces préoccupations ont inspiré la question de recherche suivante : Quelles conceptions alternatives et quels processus de raisonnement mènent les étudiants à faire de mauvaises prédictions en chimie ou à donner de mauvaises explications du comportement de la matière? C’est pour fournir une réponse à cette question que cette recherche doctorale a été menée. Au total, 2413 étudiants ont participé à la recherche, qui était divisée en trois phases : la phase préliminaire, la phase pilote et la phase principale. Des entrevues cliniques ont été menées à la phase préliminaire, pour explorer les conceptions alternatives des étudiants en chimie. Lors de la phase pilote, des questionnaires à choix multiples avec justification ouverte des réponses ont été utilisés pour délimiter le sujet, notamment à propos des notions de chimie les plus pertinentes sur lesquelles concentrer la recherche et pour mettre en lumière les façons de raisonner des étudiants à propos de ces notions. La phase principale, quant à elle, a utilisé le questionnaire à deux paliers à choix multiples « Molécules, polarité et phénomènes » (MPP) développé spécifiquement pour cette recherche. Ce questionnaire a été distribué aux étudiants via une adaptation de la plateforme Web ConSOL, développée durant la recherche par le groupe de recherche dont fait partie la chercheuse principale. Les résultats montrent que les étudiants de sciences de la nature ont de nombreuses conceptions alternatives et autres difficultés conceptuelles, certaines étant très répandues parmi leur population. En particulier, une forte proportion d’étudiants croient que l’évaporation d’un composé entraîne le bris des liaisons covalentes de ses molécules (61,1 %), que tout regroupement d’atomes est une molécule (78,9 %) et que les atomes ont des propriétés macroscopiques pareilles à celles de l’élément qu’ils constituent (66,0 %). D’un autre côté, ce ne sont pas toutes les mauvaises réponses au MPP qui montrent des conceptions alternatives. Certaines d’entre elles s’expliquent plutôt par une carence dans les connaissances antérieures (par exemple, lorsque les étudiants montrent une méconnaissance d’éléments chimiques communs, à 21,8 %) ou par un raisonnement logique incomplet (lorsqu’ils croient que le seul fait de posséder des liaisons polaires rend nécessairement une molécule polaire, ce qu’on observe chez 24,1 % d’entre eux). Les conceptions alternatives et les raisonnements qui mènent à des réponses incorrectes s’observent chez les étudiants de première année et chez ceux de deuxième année du programme de sciences, dans certains cas avec une fréquence diminuant entre les deux années, et dans d’autres, à la même fréquence chez les deux sous-populations. Ces résultats permettent de mitiger l’affirmation, généralement reconnue dans les écrits de recherche, selon laquelle les conceptions alternatives sont résistantes à l’enseignement traditionnel : selon les résultats de la présente recherche, certaines d’entre elles semblent en effet se résoudre à travers un tel contexte d’enseignement. Il demeure que plusieurs conceptions alternatives, carences dans les connaissances antérieures de base et erreurs de raisonnement ont été mises en lumière par cette recherche. Ces problèmes dans l’apprentissage mènent les étudiants collégiaux à faire des prédictions incorrectes du comportement de la matière, ou à expliquer ce comportement de façon incorrecte. Au regard de ces résultats, une réflexion sur l’enseignement de la chimie au niveau collégial, qui pourrait faire une plus grande place à la réflexion conceptuelle et à l’utilisation du raisonnement pour la prédiction et l’explication des phénomènes étudiés, serait pertinente à tenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation de stratégies antisyndicales est un phénomène de plus en plus préconisé par l’acteur patronal (Bronfenbrenner, 2009b). Une piste d’explication de cette croissance serait liée à l’idéologie de gestion se basant sur une amertume inhérente à l’idée de partager le pouvoir avec une tierce partie représentant des travailleurs (Dundon et al., 2006). Dans le but de faire régner cette idéologie et de conserver un environnement de travail sans présence syndicale, des multinationales se sont même positionnées ouvertement contre la syndicalisation, que l’on pense à Wal-Mart, Mc Donald’s ou Disney (Dundon et al., 2006). Avec cette puissance que les multinationales détiennent actuellement, il ne fait nul doute qu’elles exercent une influence auprès des dirigeants des plus petites entreprises (Dundon et al., 2006), ce qui pourrait expliquer ce recours accru aux stratégies antisyndicales, que ce soit avant ou après l’accréditation syndicale. Mais qu’en est-il de l’antisyndicalisme de l’acteur patronal en sol canadien? Pour certains, les employeurs canadiens pratiqueraient davantage une stratégie d’acceptation du syndicalisme comparativement à nos voisins du sud à cause notamment de la plus forte présence syndicale historique dans le système des relations industrielles canadien, des tactiques syndicales canadiennes différentes (Thomason & Pozzebon, 1998) et des lois encadrant davantage les droits d’association et de négociation collective (Boivin, 2010; Thomason & Pozzebon, 1998). Des travaux montrent cependant une réelle volonté de la part des employeurs canadiens à avoir recours à des stratégies d’opposition à la syndicalisation (Bentham, 2002; Martinello & Yates, 2002; Riddell, 2001). Selon les auteurs Martinello et Yates (2002), six pour cent (6 %) des employeurs ontariens couverts dans le cadre de leur étude n’auraient adopté aucune tactique pour éviter ou éliminer le syndicat : quatre-vingt-quatorze pour cent (94 %) des employeurs couverts ont ainsi utilisé différentes tactiques pour s’opposer au syndicalisme. C’est donc dire que l’opposition patronale face au mouvement syndical révélée par l’utilisation de diverses stratégies antisyndicales est aussi présente chez les employeurs canadiens. Peu d’études canadiennes et québécoises ont pourtant enrichi la littérature au sujet de ce phénomène. De manière générale, les travaux effectués sur la question, anglo-saxons et surtout américains, font principalement état du type de stratégies ainsi que de leur fréquence d’utilisation et proposent souvent une méthodologie basée sur une recension des décisions des tribunaux compétents en la matière ou l’enquête par questionnaire. Face à ces constats, nous avons visé à contribuer à la littérature portant sur les stratégies antisyndicales et nous avons construit un modèle d’analyse nous permettant de mieux cerner leurs effets sur les travailleurs et les syndicats. Notre recherche se démarque également de la littérature de par les démarches méthodologiques qu’elle propose. Nous avons en effet réalisé une recherche de nature qualitative, plus spécifiquement une étude de cas d’une entreprise multiétablissement du secteur du commerce au détail. Notre modèle d’analyse nous permet de dégager des constats quant aux effets de l’utilisation des stratégies patronales antisyndicales auprès des travailleurs visés et du syndicat visé, que ce soit sur les intérêts individuels, les intérêts collectifs ainsi que sur les intérêts du syndicat tels que proposés par Slinn (2008b). Également, nous cherchions à comprendre dans quelle mesure les stratégies antisyndicales contribuent à diminuer (effet paralysant) ou à augmenter (effet rebond) la propension à la syndicalisation des travailleurs visés par les stratégies, tout en tenant compte de la propension des travailleurs d’autres succursales qui n’étaient pas visés directement par cette utilisation (effet d’entraînement). Pour atteindre nos objectifs de recherche, nous avons procédé en trois phases. La phase 1 a permis de faire la recension de la littérature et de formuler des propositions théoriques à vérifier sur le terrain. La phase 2 a permis de procéder à la collecte de données grâce aux entrevues semi-dirigées réalisées à deux niveaux d’analyse : auprès de représentants syndicaux et de travailleurs. Au cours de la phase 3, nous avons procédé à la retranscription des entrevues effectuées et nous avons analysé les principaux résultats obtenus. La méthode de l’appariement logique (Yin, 2009) a été utilisée pour comparer les phénomènes observés (données issues du terrain) aux phénomènes prédits (constats de la littérature et propositions théoriques). À la suite de la réalisation de la phase 3, nous constatons que la campagne de peur a été celle qui a été la plus utilisée en réaction à la menace de présence syndicale avec les tactiques dites coercitives qui la composent : la fermeture de deux succursales, un discours devant un auditoire captif, la diffusion d’une vidéo interne, etc. De ce fait, un sentiment de peur généralisé (86 % des répondants) s’attaquant aux intérêts collectifs a été perçu à la suite de l’utilisation des tactiques antisyndicales. Par conséquent, nous avons pu observer l’effet de ces tactiques sur les travailleurs visés et sur le syndicat : elles auraient en effet gelé la propension de travailleurs d’autres succursales à se syndiquer (64 % des répondants) et donc freiné la campagne syndicale en cours. Nous constatons également que bon nombre de tactiques ont été déployées à la suite de l’accréditation syndicale en s’attaquant aux intérêts individuels. Mentionnons, pour n’en citer que quelques-uns, que les travailleurs feraient face à une plus forte discipline (72 % des répondants), qu’ils seraient victimes d’intimidation ou de menaces (80 % des répondants) et que ces tactiques provoquèrent des démissions à cause de l’ambiance de travail alourdie (50 % des répondants).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La démarche scientifique (ou expérimentale) en milieu scolaire nécessite des savoir-faire expérimentaux qui ne s’acquièrent habituellement qu’en présentiel, c’est-à-dire en laboratoire institutionnel où l’enseignant ou le technicien sont présents et peuvent, à tout moment, assister pleinement l’apprenant dans sa démarche d’investigation scientifique et technologique. Ils peuvent l’orienter, le diriger, susciter sa réflexion, faire des démonstrations réelles ou contrôler son expérimentation en lui montrant comment paramétrer les outils d’expérimentation assistée par ordinateur (ExAO). Pour répondre aux besoins de la formation à distance, cette recherche de développement en didactique des sciences et de la technologie propose de mettre à la disposition des apprenants et des enseignants un environnement de laboratoire informatisé, contrôlé et assisté à distance. Cet environnement, axé sur un microlaboratoire d’ExAO (MicrolabExAO), que nous avons nommé Ex@O pour le distinguer, a été testé de manière fonctionnelle, puis évalué en situation réelle par des étudiants-maîtres et des élèves de l’éducation des adultes qui ont pratiqué et expérimenté la démarche scientifique, en situation de laboratoire réel, mais à distance. Pour ce faire, nous avons couplé le logiciel MicrolabExAO à un logiciel de prise en main à distance avec outils audio et vidéo (Teamviewer). De plus, nous avons créé et inséré, dans le logiciel MicrolabExAO, une aide en ligne pour télécharger et faciliter la prise en main à distance. Puisque cet environnement Ex@O permet de multiplier les contacts des apprenants avec une expérimentation concrète, ce prototype répond bien à l’un des objectifs du Programme de formation de l’école québécoise (PFEQ) qui est de rendre l’apprenant plus actif dans ses apprentissages. Et parce que ce premier prototype d’environnement Ex@O permet d’effectuer des activités en laboratoire à distance, nous avons pu vérifier qu’il met aussi l’accent, non seulement sur les savoirs, mais également sur les savoir-faire expérimentaux en sciences et technologie, traditionnellement développés dans les locaux des laboratoires institutionnels. Notons ici que la démarche expérimentale s’acquiert très majoritairement en laboratoire en pratiquant, souvent et régulièrement, le processus inductif et déductif propre à cette démarche. Cette pratique de la démarche expérimentale, à distance, avec la technologie Ex@O qui l’accompagne, nous a permis de vérifier que celle-ci était possible, voire comparable à la réalisation, pas-à-pas, d’un protocole expérimental effectué dans un laboratoire institutionnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à l’opacité interprétative et la faillite du langage auxquelles nous nous heurtons dans l’analyse des œuvres-chocs de Sarah Kane, quelle approche nous permettrait de commenter exhaustivement les formes et les moyens mis en œuvre par la dramaturge pour imprimer sa marque dans l’esprit du spectateur contemporain? Le théâtre postdramatique, paradigme élaboré par Hans-Thies Lehmann, présenterait a priori un dispositif pertinent pour faire lumière sur des problématiques contemporaines cruciales en jeu dans l’œuvre de Kane. Aucunement univoque, car soumis à l’interprétation et à l’engagement du spectateur, le caractère politique des pièces, pourtant spectral, s’avère ici essentiel. Ce spectre politique se laisse percevoir à travers le prisme de la violence et la nécessité du choc semble être son parti pris pour redéfinir le rôle du théâtre dans nos sociétés modernes caractérisées par la circulation massive des images à travers les nouveaux médias. Un lien de coresponsabilité de l’artiste et du spectateur se crée: l’œuvre nous interroge, spectateur/lecteur, sur la part mystérieuse de ce fond de cruauté humaine et sur notre complicité dans l’omniprésence de la violence à travers la consommation de ses produits. Mettant en relief les caractères transgressifs venant bousculer nos affects à travers des références à la « culture d’en bas » et un exercice des limites du spectaculaire centré sur l’obscène et le détournement des codes de la pornographie, cette lecture postdramatique de Cleansed et de Phaedra’s love entend restituer à l’œuvre de Kane son énergie pour un changement qui passe par un éveil des sens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail de thèse porte sur la simulation du déploiement des prothèses vasculaires de type stent-graft (SG) lors de la réparation endovasculaire (EVAR) des anévrismes de l’aorte abdominale (AAA). Cette étude se présente en trois parties: (i) tests mécaniques en flexion et compression de SG couramment utilisés (corps et jambage de marque Cook) ainsi que la simulation numérique desdits tests, (ii) développement d’un modèle numérique d’anévrisme, (iii) stratégie de simulation du déploiement des SG. La méthode numérique employée est celle des éléments finis. Dans un premier temps, une vérification du modèle éléments finis (MEF) des SG est realisée par comparaison des différents cas de charge avec leur pendant expérimental. Ensuite, le MEF vasculaire (AAA) est lui aussi vérifié lors d’une comparaison des niveaux de contraintes maximales principales dans la paroi avec des valeurs de la littérature. Enfin, le déploiement est abordé tout en intégrant les cathéters. Les tests mécaniques menés sur les SG ont été simulés avec une différence maximale de 5,93%, tout en tenant compte de la pré-charge des stents. Le MEF de la structure vasculaire a montré des contraintes maximales principales éloignées de 4,41% par rapport à un modèle similaire précédemment publié. Quant à la simulation du déploiement, un jeu complet de SG a pu être déployé avec un bon contrôle de la position relative et globale, dans un AAA spécifique pré-déformé, sans toutefois inclure de thrombus intra-luminal (TIL). La paroi du AAA a été modélisée avec une loi de comportement isotropique hyperélastique. Étant donné que la différence maximale tolérée en milieu clinique entre réalité et simulation est de 5%, notre approche semble acceptable et pourrait donner suite à de futurs développements. Cela dit, le petit nombre de SG testés justifie pleinement une vaste campagne de tests mécaniques et simulations supplémentaires à des fins de validation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La déficience intellectuelle (DI) définit un groupe de conditions génétiquement hétérogènes caractérisées par l’apparition de troubles cognitifs précoces chez l’enfant. Elle affecte 1-3% de la population dans les pays industrialisés. La prévalence de la DI est beaucoup plus élevée ailleurs dans le monde, en raison de facteurs sociodémographiques comme le manque de ressources dans le système de santé, la pauvreté et la consanguinité. Des facteurs non-génétiques sont mis en cause dans l’étiologie de la DI ; on estime qu’environ 25% des cas de DI sont d’origine génétique. Traditionnellement, les bases moléculaires de la DI ont été investiguées par des analyses cytogénétiques, les approches de cartographie génétique et le séquençage de gènes candidats ; ces techniques de génétiques classiques sont encore mises à rude épreuve dans l’analyse de maladies complexes comme la DI. La DI liée à l’X a été particulièrement étudiée, avec plus d’une centaine de gènes identifiés uniquement sur le chromosome X. Des mutations hétérozygotes composites sont mises en évidence dans la DI autosomique, dans le contexte d’unions non-consanguines. L’occurrence de ce type de mutations est rare, chez des individus non-apparentés, de sorte que les mutations dominantes de novo sont plus courantes. Des mutations homozygotes sont attendues dans les populations consanguines ou marquées par un effet fondateur. En fait, les bases moléculaires de la DI autosomique ont été presqu’exclusivement étudiées dans le contexte de populations avec des forts taux de consanguinité. L’origine de la DI demeure encore inconnue dans environ 60 % des cas diagnostiqués. En l’absence de facteurs environnementaux associés à la DI chez ces individus, il est possible d’envisager que des facteurs génétiques non identifiés entrent en jeu dans ces cas de DI inexpliqués. Dans ce projet de recherche, nous voulions explorer l’origine génétique de la DI, dans vingt familles, où une transmission de la maladie selon un mode autosomique récessif est suspectée. Nous avons mis de l’avant les techniques de séquençage de nouvelle génération, afin de mettre en évidence les déterminants génétiques de la DI, à l’échelle du génome humain. En fait, nous avons priorisé la capture et le séquençage de l’exome; soient la totalité des régions codantes du génome humain et leurs sites d’épissage flanquants. Dans nos analyses, nous avons ciblé les variants qui ne sont pas rapportés trop fréquemment dans différentes bases de données d’individus contrôles, ces mutations rares cadrent mieux avec une condition comme la DI. Nous avons porté une attention particulière aux mutations autosomiques récessives (homozygotes et hétérozygotes composites) ; nous avons confirmé que ces mutations ségréguent avec une transmission récessive dans la famille à l’étude. Nous avons identifié des mutations dans des gènes pouvant être à l’origine de la DI, dans certaines des familles analysées ; nous avons validé biologiquement l'impact fonctionnel des mutations dans ces gènes candidats, afin de confirmer leur implication dans la pathophysiologie de la DI. Nous avons élucidé les bases moléculaires de la DI dans huit des familles analysées. Nous avons identifié le second cas de patients avec syndrome de cassure chromosomique de Varsovie, caractérisé par des dysfonctions de l’ARN hélicase DDX11. Nous avons montré qu’une perte de l’activité de TBC1D7, une des sous-unités régulatrice du complexe TSC1-TSC2, est à l’origine de la pathologie dans une famille avec DI et mégalencéphalie. Nous avons mis en évidence des mutations pathogéniques dans le gène ASNS, codant pour l’Asparagine synthétase, chez des patients présentant une microcéphalie congénitale et une forme progressive d’encéphalopathie. Nous avons montré que des dysfonctions dans la protéine mitochondriale MAGMAS sont mises en cause dans une condition caractérisée par un retard prononcé dans le développement associé à une forme sévère de dysplasie squelettique. Nous avons identifié une mutation tronquant dans SPTBN2, codant pour la protéine spinocerebellar ataxia 5, dans une famille avec DI et ataxie cérébelleuse. Nous avons également mis en évidence une mutation dans PIGN, un gène impliqué dans la voie de biosynthèse des ancres de glycosylphosphatidylinositol , pouvant être à l’origine de la maladie chez des individus avec épilepsie et hypotonie. Par ailleurs, nous avons identifié une mutation - perte de fonction dans CLPB, codant pour une protéine chaperonne mitochondriale, dans une famille avec encéphalopathie néonatale, hyperekplexie et acidurie 3-méthylglutaconique. Le potentiel diagnostic des techniques de séquençage de nouvelle génération est indéniable ; ces technologies vont révolutionner l’univers de la génétique moléculaire, en permettant d’explorer les bases génétiques des maladies complexes comme la DI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire en recherche-création explore l’hybridation identitaire et le désir d’échapper aux attentes normatives. Dans le récit Ce ne sont que des corps, deux étrangers attendent le train en se racontant, en alternance, les événements qui ont marqué les derniers mois de leur vie. Emmanuel, âgé de vingt-cinq ans, s’éprend de Michelle, une femme de tête quinquagénaire rencontrée dans un bar. Cette femme rêve de réaliser certains fantasmes et Emmanuel accepte de se plier au jeu jusqu’à ce que les choses s’enveniment. Quant à Alex, jeune femme dans la vingtaine, elle quitte son village natal pour étudier à Montréal et succombe au charme de Gabriel, un aspirant musicien pour qui elle est prête à tout abandonner. Chacun des personnages de ce roman brouille les identités sexuées et sexuelles. Pour ce qui est de l’essai, il explore la manière dont Nelly Kaplan manipule le sexe et le gender de ses protagonistes pour postuler une « poétique de l’androgynie » dans certaines nouvelles du recueil Le réservoir des sens. L’essai mobilise les ressources des études consacrées à l’ironie, à la poétique surréaliste, au gender ainsi qu’à l’intertextualité pour mettre en évidence la façon dont l’auteure brouille les identités sexuées et sexuelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en co-tutelle à l'Université de Montréal et de Paris Sud

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis la colonisation jusqu’aux plus récents conflits qui affectent le « Moyen-Orient », le visuel participe à la création d’une image raciale et sexuelle du monde musulman dans laquelle l’Orient « archaïque » est représenté comme l’opposé moral de l’Occident « moderne ». Ce discours nommé Orientalisme (Saïd 1994) transforme l’Orient en objet du savoir et du regard occidental (Nochlin 1989). La peinture, la photographie, et les expositions universelles sont autant de moyens qui permettent d’instaurer un point de vue privilégié de l’Occident sur l’Orient. Avec le Web 2.0 et les technologies mobiles, le partage d’images fait partie intégrale de notre quotidien et celles-ci nous proviennent de partout et de n’importe qui. En considérant que l’Orientalisme est indissociable des techniques modernes de représentation du monde (Mitchell 2013), le présent mémoire souhaite interroger l’impact de ces nouvelles technologies sur la production, la circulation et la réception des images du dit Orient. Nous concentrerons notre étude sur les images captées et partagées depuis les manifestations de la Révolution verte iranienne de juin 2009, entre autres la vidéo de l’assassinat de la jeune Neda Agha Soltan qui a fait la une des médias occidentaux. En prenant comme base les écrits d’Edward Saïd, que nous réviserons par le biais de lectures féministes, nous verrons que l’Orientalisme visuel mute au rythme des changements politiques, culturels et technologiques qu’il rencontre. En plus d’éclairer les images de notre corpus, la question féministe nous permettra d’élargir la définition et les mécanismes de l’Orientalisme proposés par Saïd. Nous démontrerons que tout en ayant le potentiel de bouleverser l’image que construit l’Occident de l’Orient, le Web 2.0 actualise aussi l’Orientalisme visuel sous de nouveaux modes de production du savoir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vues imprenables est un récit où se succèdent les monologues de six personnages se trouvant dans un hôtel de luxe le temps d’une fin de semaine. À travers les détours discursifs que chaque personnage emprunte, les mécanismes textuels qu’il ou elle utilise pour éviter de dire et de se confronter aux réminiscences de ses fautes passées, la question du voir et de l’aveuglement se lie étroitement à celle du passage à l’acte. Quels forfaits ces hommes et ces femmes ont-ils commis ? Sont-ils capables de « se voir » réellement ? Quelle est la portée du regard sur le geste qu’ils ont antérieurement posé ? S’inspirant, entre autres, du jeu de société Clue, des Dix Commandements et de l’esthétique du film The Shining, Vues imprenables interroge la notion de repentir, cherchant à savoir jusqu’où le « voile » de la parole peut dissimuler certains actes, jusqu’à quel point le voir peut se révéler insaisissable. L’essai intitulé « Paradoxes du voir et de l’aveuglement dans Ceux d’à côté de Laurent Mauvignier » tisse également des liens avec Vues imprenables : en questionnant les limites et les possibilités du voir dans le roman de Mauvignier, il s’agit en effet d’analyser comment l’avènement de la vue, dans ce récit, laisse en tout temps présager sa possible perte, mais aussi de quelles façons le geste criminel devient « aveugle » au moment même où il est perpétré. En revisitant certains des plus grands mythes grecs, tels ceux d’Œdipe, de Tirésias et de Gorgô, cet essai étudie plus particulièrement la figure de l’alter ego, ce « moi à côté », tantôt coupable tantôt témoin, qui hante le récit de Mauvignier et il propose une réflexion sur les paradoxes du rapport au vu à partir des travaux d’Hélène Cixous, de Georges Didi-Huberman, de J.-B. Pontalis et de Maurice Merleau-Ponty.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet évolue avec la société et les nouvelles technologies, mais ses usages restent centrés sur le principe communicationnel de partager ses idées, ses histoires avec d’autres personnes. Comprendre les modes de communication des internautes offre des défis de taille aux chercheurs. Malgré une riche littérature sur les usages d’Internet, peu d’études se sont penchées sur l’analyse en profondeur des habitudes des internautes ordinaires. Cette thèse a pour objet d’étude le partage de contenus en ligne, car il s’agit d’une pratique permettant de réfléchir sur le rapport des usagers à la technologie. En m’inspirant des travaux d’Henri Lefebvre et de Michel de Certeau, je mobilise le concept de la vie quotidienne, concept qui met en lumière les processus à travers laquelle les gens font sens de leur vie. Afin de mieux saisir le quotidien, lequel est mobile, fluide et multiple, des métaphores spatiales tirées d’études des sciences, technologies et société (STS) seront mobilisées. Les concepts d’espace fluide et de feu sont idéaux pour étudier les pratiques de partage de vidéo que l’on peut qualifier de mutables et adaptables. Dans cette thèse, l’accent est mis sur les expériences subjectives des internautes ; ainsi, j’ai adopté une méthodologie qualitative pour recueillir les témoignages d’une dizaine de participants décrivant longuement leurs pratiques. En effet, j’ai rencontré chaque personne à plusieurs reprises et nous avons discuté d’exemples spécifiques. À travers les thèmes récurrents qui ont émergé des verbatims, et dans la tradition de la théorisation ancrée, la première partie de l’analyse fournit une riche description du quotidien des participants. J’explore en particulier la façon dont les internautes adaptent leur partage sur leurs expériences des sites de réseaux sociaux, comment la vidéo est utilisée dans le maintien de leurs relations sociales, et comment le partage des vidéos complémente leurs conversations. Sachant que les pratiques en ligne et hors ligne se fondent l’une dans l’autre, la deuxième partie de l’analyse articule la complexité de la vie quotidienne et la fluidité des pratiques de partage à l’aide du concept de l’objet fluide pour traiter des aspects complexes, dynamiques et souples des pratiques des internautes ordinaires. Cette recherche qualitative fournit un portrait de l’expérience humaine qui est autant détaillé que possible. Elle permet de souligner que c’est dans une variété contextes non remarquables – car faisant partie intégrante de la vie quotidienne – que les Internautes naviguent et que les activités humaines sont sans cesse construites et transformées, ouvrant des possibilités vers de nouvelles façons de faire et de penser. La thèse poursuit un dialogue interdisciplinaire entre la communication (les Internet Studies notamment) et les études des sciences, technologies et société (STS), tout en apportant de nombreuses données empiriques sur les pratiques des internautes « ordinaires ». De plus, la thèse offre des métaphores capables d’ouvrir de nouvelles perspectives pour l’analyse des usages du Web social. Elle apporte également une contribution originale en intégrant des approches théoriques des pratiques quotidiennes avec la théorisation ancrée. Tant les fondements conceptuels et des approches méthodologiques développées ici seront des exemples très utiles pour d’autres chercheurs intéressés à poursuivre la compréhension des pratiques quotidiennes impliquant l’Internet, surtout quand ces derniers impliquent le visuel, l’émotif et le relationnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contact: jean-simon.denault@umontreal.ca