465 resultados para Approches


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nouvelle « Bartleby The Scrivener. A Story of Wall-Street » pose des questions de lecture et d’interprétation littéraire. Grâce à des approches ayant le discours pour objet ou moyen de connaissance (rhétorique, étymologie, psychanalyse, pragmatique) de même qu’aux écrits de Herman Melville, il s’agit de cerner ce que représente Bartleby, qualifié d’« unaccountable » (inexplicable). Ce mot organise l’étude. Entier ou décomposé en morphèmes, dans une première partie, il met en évidence des univers de sens où Bartleby se montre marginal et court-circuite les systèmes : l’univers du langage (« unaccountable » : inénarrable), celui de la loi (« count » : chef d’accusation) et celui des chiffres (« account, count » : compte, compter). Une seconde partie rattache les pistes de lecture implicites ainsi dégagées aux thématiques de l’« inexplicable », explicites dans le texte, permettant une interprétation touchant l’univers des lettres, leur pérennité et leur circulation par le biais de la lecture et de l’interprétation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La neuropathie humaine sensitive et autonome de type 2 (NHSA 2) est une pathologie héréditaire rare caractérisée par une apparition précoce des symptômes et une absence d’affectation motrice. Cette pathologie entraîne la perte de perception de la douleur, de la chaleur et du froid ainsi que de la pression (toucher) dans les membres supérieurs et inférieurs et est due à des mutations autosomales récessives confinées à l’exon HSN2 de la protéine kinase à sérine/thréonine WNK1 (with-no-lysine protein kinase 1). Cet exon spécifique permettrait de conférer une spécificité au système nerveux à l’isoforme protéique WNK1/HSN2. La kinase WNK1 est étudiée en détails, en particulier au niveau du rein, mais son rôle au sein du système nerveux demeure inconnu. Considérant le début précoce de la neuropathie et le manque d’innervation sensorielle révélé par des biopsies chez les patients NHSA2, notre hypothèse de recherche est que les mutations tronquantes menant à la NHSA de type 2 causent une perte de fonction de l’isoforme WNK1/HSN2 spécifique au système nerveux entraînant un défaut dans le développement du système nerveux sensoriel périphérique. Chez l’embryon du poisson zèbre, WNK1/HSN2 est exprimé au niveau des neuromastes de la ligne latérale postérieure, un système mécanosensoriel périphérique. Nous avons obtenu des embryons knockdown pour WNK1/HSN2 par usage d’oligonucléotides morpholino antisens (AMO). Nos trois approches AMO ont révélé des embryons présentant des défauts d’établissement au niveau de la ligne latérale postérieure. Afin de déterminer la voie pathogène impliquant l’isoforme WNK1/HSN2, nous nous sommes intéressés à l’interaction rapportée entre la kinase WNK1 et le co-transporteur neuronal KCC2. Ce dernier est une cible de phosphorylation de WNK1 et son rôle dans la promotion de la neurogenèse est bien connu. Nous avons détecté l’expression de KCC2 au niveau de neuromastes de la ligne latérale postérieure et observé une expression accrue de KCC2 chez les embryons knockdown pour WNK1/HSN2 à l’aide de RT-PCR semi-quantitative. De plus, une sur-expression d’ARN humain de KCC2 chez des embryons a produit des défauts dans la ligne latérale postérieure, phénocopiant le knockdown de WNK1/HSN2. Ces résultats furent validés par un double knockdown, produisant des embryons n’exprimant ni KCC2, ni WNK1/HSN2, dont le phénotype fut atténué. Ces résultats nous mènent à suggérer une voie de signalisation où WNK1/HSN2 est en amont de KCC2, régulant son activation, et possiblement son expression. Nous proposons donc que la perte de fonction de l’isoforme spécifique cause un débalancement dans les niveaux de KCC2 activée, menant à une prolifération et une différenciation réduites des progéniteurs neuronaux du système nerveux périphérique. Les défauts associés à la NHSA de type 2 seraient donc de nature développementale et non neurodégénérative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diabète est une maladie chronique de l’homéostasie du glucose caractérisée par une hyperglycémie non contrôlée qui est le résultat d’une défaillance de la sécrétion d’insuline en combinaison ou non avec une altération de l’action de l’insuline. La surnutrition et le manque d’activité physique chez des individus qui ont des prédispositions génétiques donnent lieu à la résistance à l’insuline. Pendant cette période dite de compensation où la concentration d’acides gras plasmatiques est élevée, l’hyperinsulinémie compense pleinement pour la résistance à l’insuline des tissus cibles et la glycémie est normale. Le métabolisme du glucose par la cellule pancréatique bêta entraîne la sécrétion d’insuline. Selon le modèle classique de la sécrétion d’insuline induite par le glucose, l’augmentation du ratio ATP/ADP résultant de la glycolyse et de l’oxydation du glucose, induit la fermeture des canaux KATP-dépendant modifiant ainsi le potentiel membranaire suivi d’un influx de Ca2+. Cet influx de Ca2+ permet l’exocytose des granules de sécrétion contenant l’insuline. Plusieurs nutriments comme les acides gras sont capables de potentialiser la sécrétion d’insuline. Cependant, le modèle classique ne permet pas d’expliquer cette potentialisation de la sécrétion d’insuline par les acides gras. Pour expliquer l’effet potentialisateur des acides gras, notre laboratoire a proposé un modèle complémentaire où le malonyl-CoA dérivé du métabolisme anaplérotique du glucose inhibe la carnitine palmitoyltransférase-1, l’enzyme qui constitue l’étape limitante de l’oxydation des acides gras favorisant ainsi leur estérification et donc la formation de dérivés lipidiques signalétiques. Le modèle anaplérotique/lipidique de la sécrétion d'insuline induite par le glucose prédit que le malonyl-CoA dérivé du métabolisme du glucose inhibe la bêta-oxydation des acides gras et augmente la disponibilité des acyl-CoA ou des acides gras non-estérifiés. Les molécules lipidiques agissant comme facteurs de couplage du métabolisme des acides gras à l'exocytose d'insuline sont encore inconnus. Des travaux réalisés par notre laboratoire ont démontré qu’en augmentant la répartition des acides gras vers la bêta-oxydation, la sécrétion d’insuline induite par le glucose était réduite suggérant qu’un des dérivés de l’estérification des acides gras est important pour la potentialisation sur la sécrétion d’insuline. En effet, à des concentrations élevées de glucose, les acides gras peuvent être estérifiés d’abord en acide lysophosphatidique (LPA), en acide phosphatidique (PA) et en diacylglycérol (DAG) et subséquemment en triglycérides (TG). La présente étude a établi l’importance relative du processus d’estérification des acides gras dans la production de facteurs potentialisant la sécrétion d’insuline. Nous avions émis l’hypothèse que des molécules dérivées des processus d’estérification des acides gras (ex : l’acide lysophosphatidique (LPA) et le diacylglycerol (DAG)) agissent comme signaux métaboliques et sont responsables de la modulation de la sécrétion d’insuline en présence d’acides gras. Afin de vérifier celle-ci, nous avons modifié le niveau d’expression des enzymes clés contrôlant le processus d’estérification par des approches de biologie moléculaire afin de changer la répartition des acides gras dans la cellule bêta. L’expression des différents isoformes de la glycérol-3-phosphate acyltransférase (GPAT), qui catalyse la première étape d’estérification des acides gras a été augmenté et inhibé. Les effets de la modulation de l’expression des isoenzymes de GPAT sur les processus d’estérifications, sur la bêta-oxydation et sur la sécrétion d’insuline induite par le glucose ont été étudiés. Les différentes approches que nous avons utilisées ont changé les niveaux de DAG et de TG sans toutefois altérer la sécrétion d’insuline induite par le glucose. Ainsi, les résultats de cette étude n’ont pas associé de rôle pour l’estérification de novo des acides gras dans leur potentialisation de la sécrétion d’insuline. Cependant, l’estérification des acides gras fait partie intégrante d’un cycle de TG/acides gras avec sa contrepartie lipolytique. D’ailleurs, des études parallèles à la mienne menées par des collègues du laboratoire ont démontré un rôle pour la lipolyse et un cycle TG/acides gras dans la potentialisation de la sécrétion d’insuline par les acides gras. Parallèlement à nos études des mécanismes de la sécrétion d’insuline impliquant les acides gras, notre laboratoire s’intéresse aussi aux effets négatifs des acides gras sur la cellule bêta. La glucolipotoxicité, résultant d’une exposition chronique aux acides gras saturés en présence d’une concentration élevée de glucose, est d’un intérêt particulier vu la prépondérance de l’obésité. L’isoforme microsomal de GPAT a aussi utilisé comme outil moléculaire dans le contexte de la glucolipotoxicité afin d’étudier le rôle de la synthèse de novo de lipides complexes dans le contexte de décompensation où la fonction des cellules bêta diminue. La surexpression de l’isoforme microsomal de la GPAT, menant à l’augmentation de l’estérification des acides gras et à une diminution de la bêta-oxydation, nous permet de conclure que cette modification métabolique est instrumentale dans la glucolipotoxicité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude vise à évaluer l'exposition professionnelle au bruit des travailleurs d'une plateforme gazière en Algérie et à mettre en évidence des déterminants influençant cette exposition. Des groupes d'exposition homogène (GEH) ont été constitués sur la base de ressemblances quant à l'exposition au bruit, aux titres d'emploi et aux lieux de travail. Deux stratégies d'échantillonnage ont été suivies, la première selon la norme internationale ISO 9612 : 2009 et la seconde selon la stratégie aléatoire de l'AIHA. Pour les deux approches, les niveaux de bruit (Lex, 8h, niveaux d'exposition au bruit pondéré (A) ajustés à une journée de travail de 8 heures) des opérateurs et des superviseurs étaient généralement > 85 dB(A) alors que pour les techniciens-tableau, les niveaux de bruit (Lex, 8h) étaient en tout temps < 85 dB(A). Pour les trois GEH du titre d'emploi des maintenanciers, il y a eu régulièrement des dépassements de la valeur de référence. Plusieurs travailleurs oeuvrant sur les plateformes gazières sont exposés à des niveaux importants de bruit et sont à risque de développer des problèmes auditifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La question de recherche « Conserver ou restaurer ? » est le point de départ d’une aventure invitant le lecteur à répondre à qu’est-ce qui oriente nos interventions en matière de conservation du patrimoine bâti. Sachant que ces positions rivales ont toutes une prétention à la vérité, cette thèse fait l’hypothèse d’une médiation entre les deux approches en clarifiant ses différentes interprétations. À partir d'un regard critique de la théorie de Cesare Brandi fondée sur la dialectique historique-artistique de l’œuvre d’art ainsi que d'une réflexion sur la nature fonctionnelle de l’œuvre architecturale, cette thèse démontre qu’il n’y a pas lieu a priori de donner une prédominance à l’une des deux options, ni à établir une échelle de valeurs prédéterminées, mais dévoile un dénominateur commun qui est le temps. Ce dernier ne se restreint pas au passé et au présent, mais implique la puissance destructrice du temps de la nature et le temps historique fondé sur un présent durable riche du passé et ouvert sur l'avenir. Les résultats de la recherche révèlent enfin un dialogue possible entre nos deux alternatives, en proposant une éthique disciplinaire axée sur la dialectique du temps. Savoir « quand conserver ou quand restaurer » demande la reconnaissance de ce que l’on retient de plus significatif à travers l’existence de l’œuvre. Situer cette signification dans un passé révolu désigne l’œuvre comme témoignage d’un temps passé, en lui reconnaissant sa fonction mémorielle ou remémorative ; d’où l’approche à prédominance conservative visant à faire reculer la puissance destructrice du temps de la nature et à préserver le témoignage matériel de la dégradation. Au contraire, situer cette signification dans un présent vivant, c’est reconnaître sa vocation identitaire destinée à la représentation d’une culture ; d’où l’approche à prédominance restaurative (ré-intégrative) fondée sur le temps historique, d’un présent durable riche du passé et ouvert sur l'avenir visant à en révéler le sens. En bref, en ce qui concerne tout le patrimoine bâti, on ne peut parler que d’une dialectique fondamentale issue de la nature même de ces œuvres, à interpréter sous leur fonction mémorielle et leur vocation identitaire. Par conséquent, conserver ou restaurer devraient être réinterprétés par préserver la mémoire ou révéler l’identité. Ainsi, la conservation et la restauration ne doivent plus être entendues comme deux options antagonistes, mais comme deux modalités d’interprétation au service de la médiation de l’œuvre architecturale à travers le temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur la dimension interprétative de l'intégration européenne et sur son rôle dans la démocratisation au sein des pays postcommunistes. Je focalise mon attention sur la signification pour les gens desdits pays que revêtent la participation politique, la compétence politique, et l’action collective. Cette signification prend forme selon des circonstances spécifiques, agencées par les relations de pouvoir asymétriques avec l’Union européenne (UE). J’examine la littérature sur le rôle de l'intégration européenne dans la démocratisation des pays postcommunistes et je distingue deux paradigmes théoriques principaux : un premier qui met l'accent sur le processus institutionnel, l’autre sur le processus instrumental stratégique. Au sein de ces deux approches, je présente différents auteurs qui voient l'UE soit comme un facteur pro-démocratique, soit comme un facteur antidémocratique dans le contexte postcommuniste de transition politique. Cette recherche ne suit pas théoriquement et méthodologiquement les études contenues dans la revue de la littérature. Plutôt, elle s’appuie sur un modèle théorique inspiré des recherches de McFalls sur la réunification culturelle allemande après 1989. Ce modèle, sans négliger les approches institutionnelles et stratégiques, met l’accent sur d'autres écoles théoriques, interprétatives et constructivistes. Mes conclusions se basent sur les résultats de séjours d'étude dans deux pays postcommunistes : la Bulgarie, membre de l'UE depuis 2007, et la Macédoine, pays-candidat. J’ai recours à des méthodes qualitatives et à des techniques ethnographiques qui triangulent des résultats puisés à des sources multiples et variées pour exposer des trajectoires dynamiques de changement culturel influencées par l'intégration européenne. Les conclusions montrent sous quelles conditions les idéaux-types de changement politique conventionnels, soit institutionnel ou stratégique, représentent des modèles utiles. Je présente aussi leurs limitations. Ma conclusion principale est que l'intégration européenne représente un phénomène complexe dans le monde des significations. C’est un facteur qui est simultanément un amplificateur et un inhibiteur de la culture politique démocratique. Les gens créent des sous-cultures différentes où des interprétations multiples du processus d'intégration européenne mènent à des effets dissemblables sur la participation politique, la compétence et l’action collective. La conversation discursive entre les gens qui composent de telles sous-cultures distinctes peut produire des effets divergents au niveau national. Cette recherche n’est pas une analyse de l’UE comme mécanisme institutionnel ; elle ne pose ainsi pas l’UE comme une institution qui détermine directement le processus de démocratisation postcommuniste. Plutôt, elle s’intéresse au processus d’intégration européenne en tant qu’interaction qui affecte la culture politique au sein des pays postcommunistes, et à la manière dont cette dernière peut agir sur le processus de démocratisation. Mon point d’intérêt central n’est donc pas l’européanisation ou le processus de devenir « comme l’Europe », à moins que l’européanisation ne devienne une composante de la culture politique avec des conséquences sur le comportement politique des acteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin d’adresser la variabilité interindividuelle observée dans la réponse pharmacocinétique à de nombreux médicaments, nous avons créé un panel de génotypage personnalisée en utilisant des méthodes de conception et d’élaboration d’essais uniques. Celles-ci ont pour but premier de capturer les variations génétiques présentent dans les gènes clés impliqués dans les processus d'absorption, de distribution, de métabolisme et d’excrétion (ADME) de nombreux agents thérapeutiques. Bien que ces gènes et voies de signalement sont impliqués dans plusieurs mécanismes pharmacocinétiques qui sont bien connues, il y a eu jusqu’à présent peu d'efforts envers l’évaluation simultanée d’un grand nombre de ces gènes moyennant un seul outil expérimental. La recherche pharmacogénomique peut être réalisée en utilisant deux approches: 1) les marqueurs fonctionnels peuvent être utilisés pour présélectionner ou stratifier les populations de patients en se basant sur des états métaboliques connus; 2) les marqueurs Tag peuvent être utilisés pour découvrir de nouvelles corrélations génotype-phénotype. Présentement, il existe un besoin pour un outil de recherche qui englobe un grand nombre de gènes ADME et variantes et dont le contenu est applicable à ces deux modèles d'étude. Dans le cadre de cette thèse, nous avons développé un panel d’essais de génotypage de 3,000 marqueurs génétiques ADME qui peuvent satisfaire ce besoin. Dans le cadre de ce projet, les gènes et marqueurs associés avec la famille ADME ont été sélectionnés en collaboration avec plusieurs groupes du milieu universitaire et de l'industrie pharmaceutique. Pendant trois phases de développement de cet essai de génotypage, le taux de conversion pour 3,000 marqueurs a été amélioré de 83% à 97,4% grâce à l'incorporation de nouvelles stratégies ayant pour but de surmonter les zones d'interférence génomiques comprenant entre autres les régions homologues et les polymorphismes sous-jacent les régions d’intérêt. La précision du panel de génotypage a été validée par l’évaluation de plus de 200 échantillons pour lesquelles les génotypes sont connus pour lesquels nous avons obtenu une concordance > 98%. De plus, une comparaison croisée entre nos données provenant de cet essai et des données obtenues par différentes plateformes technologiques déjà disponibles sur le marché a révélé une concordance globale de > 99,5%. L'efficacité de notre stratégie de conception ont été démontrées par l'utilisation réussie de cet essai dans le cadre de plusieurs projets de recherche où plus de 1,000 échantillons ont été testés. Nous avons entre autre évalué avec succès 150 échantillons hépatiques qui ont été largement caractérisés pour plusieurs phénotypes. Dans ces échantillons, nous avons pu valider 13 gènes ADME avec cis-eQTL précédemment rapportés et de découvrir et de 13 autres gènes ADME avec cis eQTLs qui n'avaient pas été observés en utilisant des méthodes standard. Enfin, à l'appui de ce travail, un outil logiciel a été développé, Opitimus Primer, pour aider pour aider au développement du test. Le logiciel a également été utilisé pour aider à l'enrichissement de cibles génomiques pour d'expériences séquençage. Le contenu ainsi que la conception, l’optimisation et la validation de notre panel le distingue largement de l’ensemble des essais commerciaux couramment disponibles sur le marché qui comprennent soit des marqueurs fonctionnels pour seulement un petit nombre de gènes, ou alors n’offre pas une couverture adéquate pour les gènes connus d’ADME. Nous pouvons ainsi conclure que l’essai que nous avons développé est et continuera certainement d’être un outil d’une grande utilité pour les futures études et essais cliniques dans le domaine de la pharmacocinétique, qui bénéficieraient de l'évaluation d'une longue liste complète de gènes d’ADME.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est désormais commun de reconnaître que le cinéma, aujourd’hui, s’émancipe de son dispositif médiatique traditionnel, adoptant maintes formes liées aux champs culturels qui l’accueillent : jeux vidéo, web, médias portatifs, etc. Toutefois, c’est peut-être le champ des arts visuels et médiatiques contemporains qui lui aura fait adopter, depuis la fin des années soixante, les formes les plus désincarnées, allant parfois jusqu’à le rendre méconnaissable. À cet effet, certaines œuvres sculpturales et installatives contemporaines uniquement composées de lumière et de vapeur semblent, par leurs moyens propres, bel et bien reprendre, tout en les mettant à l’épreuve, quelques caractéristiques du médium cinématographique. Basé sur ce constat, le présent mémoire vise à analyser, sur le plan esthétique, cette filiation potentielle entre le média-cinéma et ces œuvres au caractère immatériel. Pour ce faire, notre propos sera divisé en trois chapitres s’intéressant respectivement : 1) à l’éclatement médiatique du cinéma et à sa requalification vue par les théories intermédiales, 2) au processus d’évidement du cinéma – à la perte de ses images et de ses matériaux – dans les pratiques en arts visuels depuis une cinquantaine d’années, et 3) au corpus de l’artiste danois Olafur Eliasson, et plus spécialement à son œuvre Din Blinde Passager (2010), qui est intimement liée à notre problématique. Notre réflexion sera finalement, au long de ce parcours, principalement guidée par les approches esthétiques et philosophiques de Georges Didi-Huberman et de Jacques Rançière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comment fonder théoriquement des indicateurs culturels? Issue de problèmes méthodologiques reliés à l’étude des rapports entre le temps de travail et le temps libre, cette question émerge à la suite du constat du déficit théorique de la statistique culturelle. En effet, l’étude du temps libre, comme du temps de travail, nécessite de questionner les fondements de cette répartition, en même temps qu’elle exige d’analyser concrètement les pratiques sociales reliées à ces catégories. Or, les ana-lyses sur l’emploi du temps libre sont souvent fondées sur des statistiques à propos des activités culturelles, statistiques dont la portée explicative est singulièrement limitée. Bien que des statistiques sur certaines de ces activités existent au moins depuis le début du XXe siècle, c’est à partir des années 1970 que les besoins de connaissance reliés à la mise en œuvre des politiques culturelles stimulent la production de statistiques plus nombreuses et plus détaillées. Afin de donner des significations à cette masse de statistiques, il est nécessaire de délimiter les frontières de ce qui est culture et communication parmi toutes les autres activités sociales. L’élaboration de cadres conceptuels de la culture par l’UNESCO et d’autres agences statistiques tente de répondre à cette exigence, tandis que les projets d’indicateurs avancés cherchent à donner un sens à l’information statistique. Ces tentatives se caractérisent toutefois par la faiblesse de leur assise théorique, problème qui se manifeste de manière aiguë dans la définition d’indicateurs qui ont nécessairement une portée normative. La résolution de cette impasse de la statistique culturelle passe au moins par une clarification des concepts reliés à la notion de culture. À cette fin, la méthodologie de la recherche repose sur une analyse critique de certains documents fondamentaux qui ont conduit à la création du cadre conceptuel pour la statistique culturelle de l’UNESCO, ainsi que sur des textes phares de Fernand Dumont, Pierre Bourdieu et Jürgen Habermas, choisis pour leur capacité à penser les activités culturelles dans l’ensemble social selon leur temporalité. La notion de temporalité est elle-même examinée sous l’angle de plusieurs approches théoriques. Il ressort de cet examen que la différenciation du temps en temps abstrait et temps concret permet d’entrevoir que les pratiques culturelles pourraient être mesurées non seulement selon la quantité de temps social qui leur est dévolue, mais aussi comme un temps qui a une valeur marchande. Les acquis de l’analyse critique des cadres conceptuels de la statistique culturelle et des textes de Dumont, Bourdieu et Habermas servent de points d’appui pour l’élaboration d’un projet d’indicateurs culturels pour le compte de l’Observatoire de la culture et des communications du Québec (OCCQ). Ce système d’indicateurs a été élaboré selon une grille qui définit ce qu’est un indicateur culturel, son objectif et sa signification. Les indicateurs ont été choisis au cours d’un processus de consultation mené par l’OCCQ auprès des agents gouvernementaux concernés et des représentants des associations professionnelles des secteurs de la culture et des communications du Québec.