416 resultados para Stück (Johann Wilhelm), de Zürich. inscription dans des albums (1601)
Resumo:
L'ubiquitination est une modification post-traductionnelle qui joue un rôle central dans divers processus biologiques. Elle peut être contrecarrée par les déubiquitinases (DUBs). "BRCA1-Associated Protein 1" (BAP1) est une déubiquitinase, qui fait partie de complexes multiprotéiques, possèdant une fonction de suppression tumorale ainsi qu'un potentiel anti-métastatique. De plus, BAP1 est phosphorylée suite aux dommages à l’ADN par les kinases ATM/ATR. En nous basant sur ces données, nous avons purifié les protéines associées à BAP1 dans des conditions de stress génotoxique. Bien que la composition du complexe et l’activité DUB semblent inchangées, nous avons pu identifier des changements critiques dans les niveaux et les sites de phosphorylation, confirmant la régulation de BAP1 suite aux dommages à l’ADN. En déplétant BAP1 par ARNi et en utilisant des mutants dominants négatifs, nous avons obtenu des résultats suggèrant que suite au stress génotoxique, cette DUB est requise pour prolonger le point de contrôle en G2/M et ce, en retardant la reprise du cycle cellulaire. D'un autre côté, l'expression de BAP1 dans des cellules cancéreuses qui en sont déficientes restore une ploïdie normale et diminue la fréquence d'aberrations nucléaires, suggérant que cette protéine joue un rôle dans la stabilité génomique. Nos résultats suggèrent fortement que BAP1 joue un rôle dans la réponse des cellules au stress génotoxique et la stabilité génomique. Nos travaux permettront ainsi d’identifier et de caractériser les voies de signalisation cellulaire régulant l’activité et la fonction de BAP1 durant les périodes d’exposition à des agents qui endommagent l’ADN. Les connaissances acquises seront donc d’une valeur tangible pour nôtre compréhension de la mutagenèse induite par des agents carcinogènes, un déterminant clé de la formation des tumeurs.
Resumo:
Dans les milieux dits alternatifs ou undergrounden France, affiliés aux formes postmodernes de cultures fan geek et otaku, une pratique a émergé ces dernières années: le rôleplay. Ni tout à fait jeu de rôle, ni tout à fait théâtre, cette modalité d’échange basée sur une mise en scène de soi se pratique en groupe dans des espaces consacrés. Le présent travail est le résultat d’une ethnographie au sein de ces milieux. Il cherche à la fois à rendre compte de cette pratique et à analyser les enjeux qui lui sont liés. C’est une réflexion polyphonique qui lie les questionnements de l’identité, tant individuelle que collective et la performativité à travers, notamment, les travaux de Deleuze, Agamben et Butler. La forme éclatée dans laquelle interviennent différentes voix reprend l’idée de chaos carnavalesque,motif central dans la présente analyse.
Resumo:
Cette thèse étudie la représentation de la machine chez Robida. La partie centrale de notre recherche s’intéresse à révéler ses significations et interroge sa mise en scène littéraire et visuelle dans chacun des romans de la trilogie d’anticipation scientifique la plus connue de l’auteur-illustrateur. La quête se transforme en un voyage continu entre le lisible et le visible, le dit et le non-dit, la description littéraire et l’imagination, la réalité et la fiction. Nous nous intéressons à l’évolution de la vision de Robida : dans Le Vingtième siècle, l’image de la machine bienfaisante, facilitant la vie de l’homme, économisant du temps et de l’argent, et contribuant largement à son bonheur et à son divertissement, à part quelques accidents très limités, se traduit par une complémentarité avantageuse entre le texte d’une part et les vignettes, les tableaux et les hors-textes se trouvant dans le récit, d’autre part. Celle-ci se transforme, dans La Guerre au vingtième siècle, en une inquiétude vis-à-vis de l’instrumentalisation de la machine pour la guerre, qui s’exprime par une projection de la narration vers l’illustration in-texte, et sensibilise le lecteur en montrant le caractère violent et offensif d’appareils uniquement nommés. Celle-ci devient finalement, dans La Vie électrique, synonyme d’un pessimisme total quant à l’implication de la machine dans la société et à la puissance du savoir scientifique dans l’avenir, qui s’affiche dans des hors-textes sombres et maussades. Dans ce cadre, la machine illustrée exige une lecture iconotextuelle, une importance accordée au détail, aux éléments présents ou absents, aux modalités de passage d’un mode de présentation à l’autre, à la place anticipée ou tardive de l’illustration, au rapport entre le texte, le dessin et sa légende, aux mots qui migrent vers le dessin et surtout au reste du décor incomplet. Chez Robida, les louanges qui passent à la critique et l’humour qui se fait cynisme, sont assez représentatifs des espoirs et des craintes suscités par la découverte et la mise en application de l’électricité, par ses vertus, mais aussi par son aspect incontrôlable.
Resumo:
RÉSUMÉ : Avec le dénouement de la Deuxième Guerre mondiale, le problème des réfugiés en Europe devient un enjeu international. Plusieurs millions de personnes, que l’on nomme les Displaced Persons (DP), sont sans refuge et doivent recevoir une aide immédiate pour survivre. Même si la majorité de ces gens retourneront dans leurs pays d’origine, il reste encore des centaines de milliers de réfugiés en 1948. La seule solution concrète pour régler cette problématique est l’émigration des réfugiés dans des pays prêts à les accepter. Les Américains jouent un rôle crucial en acceptant 415 000 DP entre 1948 et 1952 grâce au Displaced Persons Act de 1948 et ses amendements en 1950 et 1951. Après d’âpres discussions entre les restrictionnistes et ceux qui défendent la libéralisation des lois d’immigration, naîtra le Displaced Persons Act (DP Act) signé avec beaucoup de réticence, le 25 juin 1948, par le président Harry S. Truman. Cette loi qui prévoit la venue de 202 000 DP en deux ans, contient des mesures jugées discriminatoires à l'endroit de certaines ethnies. Afin d'améliorer le DP Act, le Congrès effectue des recherches sur la situation des réfugiés toujours dans les camps en 1949 tout en étudiant l’impact de la venue des DP aux États-Unis entre 1948 et 1950. Cette étude est soumise sous forme de rapport, le Displaced Persons and Their Resettlement in the United States, le 20 janvier 1950. Ce mémoire propose une analyse minutieuse du rapport et de son contexte politique afin de démontrer le rôle important de cette étude dans le processus décisionnel du Congrès américain visant à accueillir un plus grand nombre de DP tout en posant les bases pour une politique d’accueil en matière de refugiés.
Resumo:
Étude de cas / Case study
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Le réseau Internet a probablement causé un tourbillon économique et social sans équivalent dans l’histoire du monde moderne. De tels bouleversements ont amené plusieurs personnes à s’interroger sur la puissance de cet outil, sa liberté et son impact sur l’humanité. Nombreux sont ceux qui ont ainsi voulu attribuer à l’Internet un rôle primordial dans l’ensemble des maux de notre siècle, notamment en l’accusant de favoriser la propagation des messages de haine, la perversion des mœurs et le contournement de la loi. L’auteur se propose ici de prendre le contre-pied de ce courant pessimiste, et de faire la démonstration des avancées considérables que cet outil merveilleux a permises dans le domaine des droits économiques et sociaux. En s’appuyant sur les textes internationaux ayant donné naissance à ces droits voulus pragmatiques, l’auteur précise d’abord le contenu de prérogatives qui concernent directement le quotidien de chacun, sans pour autant faire l’objet d’une réelle application. Il met ensuite en parallèle l’objectif initial recherché par le législateur international et les avancées concrètes permises par le réseau dans des domaines aussi variés que la liberté d’expression, l’accès au droit, et la participation de tous à la vie culturelle et politique de la société. Cet article est une tentative de redonner au réseau ses lettres de noblesse, et d’encourager les lecteurs à utiliser mieux encore ses fantastiques ressources.
Resumo:
"L’enregistrement de noms de domaine, basé sur la règle du « premier arrivé, premier servi », n’a pas échappé à des personnes peu scrupuleuses qui se sont empressées d’enregistrer comme noms de domaine des marques de commerce, phénomène connu sous le nom de « cybersquattage ». L’U.D.R.P. (Uniform domain name Dispute Resolution Policy) est une procédure internationale qui a été adoptée pour régler les différends relatifs à cette pratique. La procédure de l’U.D.R.P. est conçue pour être rapide, efficace et simple. Même si le fardeau de preuve reposant sur le titulaire de marque de commerce peut sembler lourd, l’analyse de la procédure démontre qu’elle n’offre pas aux détenteurs de noms de domaine un procès juste et équitable, notamment en raison des délais très courts, de l’absence de voies de recours internes en cas de défaut et de l’obligation de saisir les tribunaux de droit commun. La procédure de l’U.D.R.P. ne présente aussi aucun caractère dissuasif envers les titulaires de marques qui tenteraient de s’approprier un nom de domaine enregistré dans des conditions légitimes. Une étude des décisions issues de la Procédure U.D.R.P. révèle qu’il existe un déséquilibre flagrant en faveur des titulaires de marques de commerces; les organismes accrédités se taillant la plus grande part du marché sont ceux dont les décisions sont généralement plus favorables aux titulaires de marques. Une variété d’arguments sont avancés pour expliquer ces résultats mais les études démontrent que la Procédure U.D.R.P. doit faire l’objet de réformes. La réforme devrait comprendre deux volets : premièrement, la modification du mode de désignation des organismes accrédités chargés d’administrer la Procédure U.D.R.P. ainsi que la modification du processus de sélection des commissaires; deuxièmement, une réforme relative aux délais, à la langue des procédures et au phénomène des procédures abusives intentées par des détenteurs de marques de commerce à l?égard d’enregistrements légitimes."
Resumo:
Les matériaux conjugués sont de nos jours très utilisés dans de nombreuses applications ainsi qu’en recherche. L’enchainement des liaisons π-σ-π permet la délocalisation des électrons et d’obtenir différentes propriétés comme la conduction, la fluorescence, la chélation, etc. Ainsi, de nombreux dispositifs utilisent ces caractéristiques en vue d’obtenir de nouveaux matériaux révolutionnaires comme les cellules solaires, les transistors à effet de champs, les dispositifs électrochromiques, etc.. Les dispositifs électrochromiques font partie des dispositifs en vogue. Ils sont capables de changer de couleur selon le potentiel électrique appliqué. Ils se distinguent par la simplicité du mode de conception et ils ne nécessitent pas de fonctionner dans des conditions drastiques comme une atmosphère contrôlée. Ces dispositifs sont actuellement utilisés et commercialisés comme fenêtre intelligente, camouflage, papier électronique et carte de visite personnalisée pour n’en nommer que quelques-uns. Deux propriétés sont essentielles pour que des composés puissent être utilisés dans ces familles de dispositifs : la réversibilité à l’oxydation et la stabilité à l’air et à la lumière. Dans le groupe de recherche du professeur W.G. Skene, l’axe principal de recherche est basé sur la conception de nouveaux matériaux conducteurs comportant des liaisons azométhines. Les principaux matériaux étudiés sont des dérivés de thiophènes et de fluorènes. De précédents résultats ont montré que plusieurs produits issus de la réaction de condensation entre les dérivés du 2,5-diaminothiophène et de thiophènes diformylés menaient à des produits possédant d’excellentes propriétés photophysiques et électrochimiques. C’est en partant de ces résultats encourageants qu’il a été choisi de synthétiser une nouvelle famille de produits avec un nouveau substrat fonctionnalisé. Ce dernier possède d’excellentes propriétés électrochimiques et photophysiques : la triphénylamine. Deux familles de produits ont été synthétisées qui possèdent toutes comme cœur une triphénylamine. Cette dernière a été modifiée de façon à créer une, deux ou trois liaisons azométhines avec différents thiophènes. Deux dérivés du thiophène ont été choisis afin d’étudier l’influence des groupements donneurs et accepteurs sur ces nouveaux types de composés encore jamais étudiés. Les résultats des différentes synthèses et analyses ont été effectués par RMN, spectrométrie de masse, spectrométrie d’absorbance UV-Visible, fluorescence et voltampérométrie cyclique sont rapportées dans le présent recueil.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Des preuves archéopalynologiques directes appuient maintenant l’hypothèse d’une lente adaptation horticole durant la néolithisation amérindienne de la région de Montréal. Les sites archéologiques Hector-Trudel (BhFl-1a) de Pointe-du-Buisson et Séminaire de Saint-Sulpice (BjFj-18) dans le Vieux-Montréal ont été retenus pour élaborer une méthodologie archéopalynologique d’étude des sols archéologiques. Cela a permis de caractériser l’impact de la présence humaine sur l'environnement végétal des sites et d’identifier des indices de culture et de gestion de plantes allogènes et indigènes. Un complexe horticole de production à petite échelle de maïs (Zea mays), de tournesol (Helianthus annuus) et de petit tabac (Nicotiana rustica) et une forme de gestion des arbustes à petits fruits sont identifiés au site Hector-Trudel durant le Sylvicole moyen tardif (500 à 1000 A.D.). Ces cultigènes sont aussi identifiés au site du Séminaire pour la fin du Sylvicole supérieur ancien (1200 à 1300 A.D.), dans des proportions toutefois plus importantes, et une activité de gestion forestière au profit des arbres à noix et du tilleul d’Amérique (Tilia americana), reflet des pratiques d’entretien des champs cultivés, témoignent d’une évolution dans les comportements
Resumo:
Les forêts occidentales sont aujourd’hui de plus en plus prisées pour la pratique d’activités récréatives en milieu naturel. Dès lors, la mise en place d’une gestion intégrée des forêts est plus que jamais indispensable au maintien des conditions nécessaires à la pratique de l’ensemble des activités sur le territoire. Le Québec s’est doté d’une nouvelle législation pour répondre aux nombreux enjeux qui touchent le milieu forestier, notamment en ce qui a trait à l’harmonisation entre les activités récréatives et la production ligneuse. Dans le cadre de cette recherche, nous nous sommes intéressés au concept d’expérience du visiteur comme moyen de faciliter cette harmonisation. Il s’agissait à la fois de caractériser l’expérience de visite des utilisateurs d’un parc régional et de se questionner sur son opérationnalisation dans l’aménagement forestier. Deux méthodes qualitatives complémentaires ont été utilisées : d’une part, l’analyse de récits inscrits dans des livres d’or placés dans différents hébergements et d’autre part, des entrevues ont été conduites auprès de visiteurs rencontrés sur le site. Les résultats révèlent la pertinence de considérer l’expérience du visiteur pour favoriser une utilisation plurielle et harmonieuse du territoire forestier. Son étude permet une compréhension fine des composantes communes et spécifiques des expériences, en fonction des visiteurs. Par ailleurs, l’étude témoigne de la possibilité de mettre en relation des typologies d’expériences recherchées et les modalités d’harmonisation. Enfin, au-delà de l’expérience, le suivi de la perception de la foresterie et des représentations peut également s’avérer pertinent pour les gestionnaires.
Resumo:
Les anomalies du tube neural (ATN) sont des malformations congénitales très fréquentes chez l’humain en touchant 1-2 nouveau-nés sur 1000 naissances. Elles résultent d’une fermeture incomplète du tube neural lors de l’embryogenèse. L’étiologie des ATN est complexe impliquant des facteurs environnementaux et des facteurs génétiques. La souris représente un outil puissant afin de mieux comprendre la génétique des ATN. Particulièrement, la souris modèle a impliqué fortement la voie de la polarité cellulaire planaire (PCP) dans ces malformations. Dans cette étude, nous avons identifié et caractérisé une nouvelle souris mutante, Skam26Jus dans le but d’identifier un nouveau gène causant les ATN. Skam26Jus a été générée par l’agent mutagène N-Ethyl-N-Nitrosuera. Cette souris est caractérisée par une queue en forme de boucle ou de crochet, soit un phénotype associé aux ATN. La complémentation génétique de la souris Skam26Jus avec une souris mutante d’un gène de la voie PCP Vangl2 (Looptail) a montré une interaction génétique entre le gène muté chez Skam26Jus et Vangl2, suggérant que ces deux gènes fonctionnent dans des voies de signalisation semblables ou parallèles. Un total de 50% des embryons doubles hétérozygotes avec un phénotype de la queue présentent un spina bifida. La cartographie par homozygotie du génome entier suivie par un clonage positionnel a permis d’identifier Lrp6 comme le gène muté chez Skam26Jus. Une mutation homozygote, p.Ile681Arg, a été identifiée dans Lrp6 chez les souris ayant une queue en boucle/crochet. Cette mutation était absente dans 30 souches génétiques pures indiquant que cette mutation est spécifique au phénotype observé. Une étude de phénotype-génotype évalue la pénétrance à 53 % de la mutation Ile681Arg. Lrp6 est connu pour activer la voie canonique Wnt/β-caténine et inhiber la voie non canonique Wnt/PCP. Le séquençage de la région codante et de la jonction exon-intron de LRP6 chez 268 patients a mené à l’identification de quatre nouvelles rares mutations faux sens absentes chez 272 contrôles et de toutes les bases de données publiques. Ces mutations sont p.Tyr306His ; p.Tyr373Cys ; p.Val1386Ile; p.Tyr1541Cys et leur pathogénicité prédite in silico indiquent que p.Val1386Ile est bénigne, et que p.Tyr306Hiset p.Tyr373Cys et p.Tyr1541Cys sont i possiblement dommageables. Les mutations p.Tyr306His, p.Tyr373Cys et p.Tyr1541Cys ont affecté l’habilité de LRP6 d’activer la voie Wnt/β-caténine en utilisant le système rapporteur luciférase de pTOPflash. Nos résultats suggèrent que LRP6 joue un rôle dans le développement des ATN chez une petite fraction de patients ayant une ATN. Cette étude présente aussi Skam26Jus comme un nouveau modèle pour étudier les ATN chez l’humain et fournit un outil important pour comprendre les mécanismes moléculaires à l’origine des A TN.