429 resultados para produit lithique clastique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Escherichia coli produit diverses entérotoxines thermolabiles et thermostables. STb est une toxine de faible poids moléculaire résistant à la chaleur chargée de la diarrhée chez les animaux de la ferme. Une étude antérieure a montré que les cellules ayant internalisé la toxine STb provoquent un dysfonctionnement de la barrière épithéliale par des changements dans les protéines des jonctions serrées (TJ). Ces modifications contribuent probablement à la diarrhée observée. Pour mieux comprendre le mécanisme de l'augmentation de la perméabilité intestinale, nous avons traité les cellules du côlon humain (T84) avec la toxine purifiée STb une fois que les cellules ont été récoltées et les protéines extraites. Après l'utilisation d'une solution contenant 1% de Nonidet P-40 (un détergent non dénaturant, non ionique), nous avons étudié la distribution de la claudine -1, une protéine majeure des TJs, responsable de l'imperméabilité de l'épithélium, entre la membrane (NP40-insoluble) et le cytoplasme (NP40-soluble). En utilisant l’immunoblot et la microscopie confocale, nous avons observé que le traitement des monocouches de cellules T84 avec STb induit la redistribution de la claudine-1. Après 24h, les cellules cultivées en milieu faible en Ca+ (5 uM) et traitées par STb, ont montré qu’environ 40 % de plus de la claudine-1 se sont délogées dans le cytoplasme par comparaison au contrôle. En passant d’un milieu faible à un milieu contenant des quantités physiologiques de Ca++ (1,8 mM) nous avons observé une augmentation du taux de claudine- 1 délogé, comme la délocalisation comparable et ce, après 6h. Un milieu supplémenté avec la même concentration de Mg++ ou Zn++ n'a pas affecté le taux de délogement comparé au milieu contenant une faible teneur en Ca++. En utilisant des anticorps anti-phosphosérine et anti-phosphothréonine, nous avons observé que la perte des claudines-1 de la membrane a été accompagnée par une déphosphorylation de cette protéine des TJs. Dans l'ensemble, nos résultats ont montré une importante redistribution de la claudine-1 dans les cellules traitées par la toxine STb. La perte de la claudine-1 phosphorylée de la membrane est susceptible d'être impliquée dans la perméabilité accrue observée. Les mécanismes par lesquels ces changements sont provoqués restent à élucider.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: L'arthrose est caractérisée par une destruction progressive du cartilage, une inflammation synoviale, et un remodelage de l’os sous-chondral avec une production excessive des médiateurs inflammatoires et cataboliques. Nous avons démontré que le niveau du 4-hydroxynonénal (4-HNE), un produit de la peroxydation lipidique, est augmenté dans le cartilage humain arthrosique sans qu’on sache le mécanisme exacte impliqué dans l’augmentation de cette molécule. Des données de la littérature indiquent que l’accumulation du HNE est contrôlée par l’action de la glutathione S-transférase A4-4 (GSTA4-4), une enzyme impliquée dans la détoxification du HNE. Au niveau transcriptionel, l’expression de cette enzyme est régulée par la transactivation du facteur de transcription Nrf2. Objectif: L’objectif de cette étude vise à démontrer que l’augmentation du HNE dans le cartilage arthrosique est attribuée, en partie, à l’altération de l’expression de la GSTA4-4 et de Nrf2. Méthode: Le niveau d’expression de la GSTA4-4 et de Nrf2 a été mesurée par Western blot et par PCR en temps réel dans le cartilage humain arthrosique et dans le cartilage provenant des souris atteintes d’arthrose. Pour démontrer le rôle du Nrf2 dans l’arthrose, les chondrocytes humains arthrosiques ont été traités par l’interleukine 1beta (IL-1β) ou par le H2O2 en présence ou en absence des activateurs du Nrf2 tels que le Protandim®, AI, et du 6-Gingérol. Par ailleurs, les chondrocytes ont été transfectés par un vecteur d’expression de Nrf2 puis traités par l’IL-β. En utilisant le modèle d’arthrose chez la souris, les animaux ont été traités par voie orale de 10 mg/kg/jour de Protandim® pendant 8 semaines. Résultats: Nous avons observé une diminution significative de l’expression de la GSTA4-4 et de Nrf2 dans le cartilage humain et murin arthrosique. L'activation de Nrf2 bloque la stimulation de la métalloprotéinase-13 (MMP-13), la prostaglandine E2 (PGE2) et de l'oxyde nitrique (NO) par l’IL-1β. En outre, nous avons montré que l'activation Nrf2 protège les cellules contre la mort cellulaire induite par H2O2. Fait intéressant, l'administration orale de Protandim® réduit la production du HNE par l'intermédiaire de l’activation de la GSTA4. Nous avons démontré que le niveau d’expression de la GSTA4-4 et de Nrf2 diminue dans le cartilage provenant des patients et des souris atteints d’arthrose. De plus, la surexpression de ce facteur nucléaire Nrf2 empêche la production du HNE et la MMP-13 et l’inactivation de la GSTA4-4. Dans notre modèle expérimental d’arthrose induite par déstabilisation du ménisque médial chez la souris, nous avons trouvé que l'administration orale de Protandim® à 10 mg / kg / jour réduit les lésions du cartilage. Conclusion: Cette étude est de la première pour démontrer le rôle physiopathologique du Nrf2 in vitro et in vivo. Nos résultats démontrent que l’activation du Nrf2 est essentielle afin de maintenir l’expression de la GSTA4-4 et de réduire le niveau du HNE. Le fait que les activateurs du Nrf2 abolissent la production de la HNE et aussi un certain nombre de facteurs connus pour être impliqués dans la pathogenèse de l’arthrose les rend des agents cliniquement utiles pour la prévention de la maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat porte sur la catalyse à partir de métaux de transition et sur la substitution homolytique aromatique favorisée par une base visant à former de nouvelles liaisons C–C, et à ainsi concevoir de nouvelles structures chimiques. Au cours des vingt dernières années, des nombreux efforts ont été réalisés afin de développer des méthodologies pour la fonctionnalisation de liens C–H, qui soient efficaces et sélectives, et ce à faible coût et en produisant le minimum de déchets. Le chapitre d'introduction donnera un aperçu de la fonctionnalisation directe de liens C–H sur des centres sp2 et sp3. Il sera également discuté dans cette partie de certains aspects de la chimie radicalaire reliés a ce sujet. Les travaux sur la fonctionnalisation d’imidazo[1,5-a]pyridines catalysée par des compleces de ruthénium seront présentés dans le chapitre 2. Malgré l'intérêt des imidazo[1,5-a]azines en chimie médicinale, ces composés n’ont reçu que peu d'attention dans le domaine de la fonctionnalisation de liens C–H. L'étendue de la réaction et l'influence des effets stériques et électroniques seront détaillés. Les cyclopropanes représentent les 10ème cycles carbonés les plus rencontrés dans les petites molécules d’intérêt pharmacologique. Ce sont aussi des intermédiaires de synthèse de choix pour la création de complexité chimique. Malgré de grands progrès dans le domaine de la fonctionnalisation de liens C(sp3)–H, l'étude des cyclopropanes comme substrats dans les transformations directes est relativement nouvelle. Le chapitre trois présentera l'arylation intramoléculaire directe de cyclopropanes. Cette réaction est réalisée en présence de palladium, en quantité catalytique, en combinaison avec des sels d’argent. Des études mécanistiques ont réfuté la formation d'un énolate de palladium et suggéreraient plutôt une étape de métallation - déprotonation concertée. En outre, les cycles de type benzoazepinone à sept chaînons ont été synthétisés par l'intermédiaire d'une séquence d'activation de cyclopropane/ouverture/cyclisation. Une arylation directe intermoléculaire des cyclopropanes a été réalisée en présence d'un auxiliaire de type picolinamide (Chapitre 4). Les deux derniers chapitres de ce mémoire de thèse décriront nos études sur la substitution homolytique aromatique favorisée par une base. Le mécanisme de la réaction de cyclisation intramoléculaire d'halogénures d'aryle, réalisée en présence de tert-butylate de potassium, a été élucidé et se produit via une voie radicalaire (Chapitre 5). La transformation, exempte de métaux de transition, ne nécessite que la présence d’une base et de pyridine comme solvant. Cette réaction radicalaire a été étendue à la cyclisation d'iodures d'alkyle non activés en présence d'un catalyseur à base de nickel et de bis(trimethylsilyl)amidure de sodium comme base (Chapitre 6). Des études de RMN DOSY ont démontré une association entre le catalyseur, la base et le matériel de départ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le concept de transit-oriented development (TOD) est habituellement abordé en tant qu'ensemble fixe de caractéristiques physico-spatiales. Cette approche ne s'avere pas suffisante pour comprendre comment le TOD peut être pertinent pour coordonner les transports et l'urbanisme dans un contexte urbain concret. Afin de combler cette lacune, nous proposons d'étudier le TOD en tant qu'instrument d'action publique, adopté, produit et utilisé par les acteurs sur le territoire en fonction des enjeux, des ressources et des contraintes qui y sont présents. Ce travail exploratoire est fondé sur une étude de cas de la mise en place du TOD a Sainte-Thérese. Pour comprendre comment se sont arrimés les intérêts des acteurs impliqués et ce qui en a résulté, la collecte de données se fait a l'aide de sources écrites, mais aussi d’entretiens semi-directifs avec les acteurs clé. Les résultats de l'étude confirment la pertinence de l'approche adoptée pour aborder le TOD. Le TOD comme instrument d'action publique peut être qualifié d'opérateur de congruence, car il permet de faire converger les intérêts différents, et même potentiellement contradictoires, qui sont en jeu sur le territoire. Cependant, il n'y a pas de formule passe-partout: la production du TOD se fait en grande partie de façon incrémentale, en fonction des conditions sur le territoire. La mise en place du TOD n'exige pas nécessairement l'invention d'un nouveau cadre d'action et peut se faire en grande partie a l'aide des outils existants. Toutefois, pour pouvoir se servir pleinement de ces outils, le leadership des acteurs clé s'avere crucial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évaluation de la condition corporelle des carcasses des bélugas du Saint-Laurent contribue au diagnostic de cause de mortalité du pathologiste. La méthode actuelle repose sur une évaluation visuelle subjective. Notre projet visait à chercher un outil objectif d’évaluation de la condition corporelle. L’indice de masse mise à l’échelle (M̂ i) est objectif puisqu’il est calculé à partir de la masse et de la taille de chaque individu. M̂ i doit être calculé avec des constantes différentes pour les bélugas mesurant plus ou moins de 290 cm. Il produit des résultats en accord avec l’évaluation visuelle. Comme il est parfois logistiquement impossible de peser un béluga, nous avons évalué des indices basés sur d’autres mesures morphométriques. Les indices basés sur la circonférence à hauteur de l’anus pour les bélugas de moins de 290 cm et la circonférence maximale pour ceux de plus de 290 cm représentent des indices de condition corporelle alternatifs intéressants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sociétés contemporaines affrontent le défi de s’intégrer et s’adapter à un processus de transformation qui vise la construction de sociétés du savoir. Ce processus doit notamment son élan aux institutions d’enseignement supérieur qui constituent un espace privilégié où on bâtit l’avenir d’une société à partir des savoirs et celles-ci doivent faire face aux nouveaux enjeux sociaux, économiques et politiques qui affectent tous les pays du monde. La quête de la qualité devient donc un processus constant d’amélioration et surgit l’intérêt par l’évaluation au niveau universitaire. Par conséquent, cette recherche s’attache au sujet de l’évaluation à l’enseignement supérieur et s’enfonce dans le débat actuel sur les changements provoqués par les évaluations institutionnelles produisant un défi puisqu’il s’agit d’une prise de conscience fondée sur la culture de la qualité. L’autoévaluation est une stratégie permettant aux institutions d’enseignement supérieur mener des processus intégraux de valorisation dont le but est d’identifier les faiblesses des facteurs qui ont besoin d’améliorer. Le résultat conduit à l’élaboration et à la mise en œuvre d’un plan d’amélioration pour l'institution, programme académique ou plan d’études. À travers l’orientation du modèle d’évaluation systémique CIPP de Stufflebeam (1987), on a pu analyser de façon holistique la mise en place de l’autoévaluation depuis son contexte, planification, processus et produit. Ainsi les objectifs de la thèse visent l’identification du développement de la deuxième autoévaluation afin d’obtenir une reconnaissance de haute qualité et effectuer la mise en œuvre du plan d’amélioration auprès des programmes académiques de Licence en Comptabilité et Gestion de l’entreprise de la Faculté de Sciences de l’Administration de l’Université du Valle en Colombie. À travers l’appropriation de la théorie Neo-institutionnelle les changements apparus après l’autoévaluation ont été également analysés et interprétés et ont ainsi permis l’achèvement des fins de la recherche. La méthodologie développe la stratégie de l’étude de cas dans les deux programmes académiques avec une approche mixte où la phase qualitative des entretiens semi-structurés est complémentée par la phase quantitative des enquêtes. Des documents institutionnels des programmes et de la faculté ont aussi été considérés. Grâce à ces trois instruments ont pu obtenir plus d’objectivité et d’efficacité pendant la recherche. Les résultats dévoilent que les deux programmes ciblés ont recouru à des procédés et à des actions accordées au modèle de l’Université du Valle quoiqu’il ait fallu faire des adaptations à leurs propres besoins et pertinence ce qui a permis de mener à terme la mise en œuvre du processus d’autoévaluation et ceci a donné lieu à certains changements. Les composantes Processus Académiques et Enseignants sont celles qui ont obtenu le plus fort développement, parmi celles-ci on trouve également : Organisation, Administration et Gestion, Ressources Humaines, Physiques et Financières. D’autre part, parmi les composantes moins développées on a : Anciens Étudiants et Bienêtre Institutionnel. Les conclusions ont révélé que se servir d’un cadre institutionnel fort donne du sens d’identité et du soutien aux programmes. Il faut remarquer qu’il est essentiel d’une part élargir la communication de l’autoévaluation et ses résultats et d’autre part effectuer un suivi permanent des plans d’amélioration afin d’obtenir des changements importants et produire ainsi un enracinement plus fort de la culture de la qualité et l’innovation auprès de la communauté académique. Les résultats dégagés de cette thèse peuvent contribuer à mieux comprendre tant la mise en œuvre de l’autoévaluation et des plans d’amélioration aussi que les aspects facilitateurs, limitants, les blocages aux processus d’évaluation et la génération de changements sur les programmes académiques. Dans ce sens, la recherche devient un guide et une réflexion à propos des thèmes où les résultats sont très faibles. Outre, celle-ci révèle l’influence des cadres institutionnels ainsi que les entraves et tensions internes et externes montrant un certain degré d’agencement par le biais de stratégies de la part des responsables de la prise de décisions dans les universités. On peut déduire que la qualité, l’évaluation, le changement et l’innovation sont des concepts inhérents à la perspective de l’apprentissage organisationnel et à la mobilité des savoirs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’hypothèse générale de ce projet soutient que le système moteur doit performer des transformations sensorimotrices afin de convertir les entrées sensorielles, concernant la position de la cible à atteindre, en commande motrice, afin de produire un mouvement du bras et de la main vers la cible à atteindre. Ce type de conversion doit être fait autant au niveau de la planification du mouvement que pour une éventuelle correction d’erreur de planification ou d’un changement inopiné de la position de la cible. La question de recherche du présent mémoire porte sur le ou les mécanismes, circuits neuronaux, impliqués dans ce type de transformation. Y a-t-il un seul circuit neuronal qui produit l’ensemble des transformations visuomotrices entre les entrées sensorielles et les sorties motrices, avant l’initiation du mouvement et la correction en temps réel du mouvement, lorsqu’une erreur ou un changement inattendu survient suite à l’initiation, ou sont-ils minimalement partiellement indépendants sur le plan fonctionnel? L’hypothèse de travail suppose qu’il n’y ait qu’un seul circuit responsable des transformations sensorimotrices, alors l’analyse des résultats obtenus par les participants devrait démontrer des changements identiques dans la performance pendant la phase de planification du mouvement d’atteinte et la phase de correction en temps réel après l’adaptation à des dissociations sensorimotrices arbitraires. L’approche expérimentale : Dans la perspective d’examiner cette question et vérifier notre hypothèse, nous avons jumelé deux paradigmes expérimentaux. En effet, les mouvements d’atteinte étaient soumis à une dissociation visuomotrice ainsi qu’à de rares essais composés de saut de cible. L’utilisation de dissociation visuomotrice permettait d’évaluer le degré d’adaptation des mécanismes impliqués dans le mouvement atteint. Les sauts de cible avaient l’avantage de permettre d’examiner la capacité d’adaptation à une dissociation visuomotrice des mécanismes impliqués dans la correction du mouvement (miroir : sur l’axe y, ou complète : inversion sur les axes x et y). Les résultats obtenus lors des analyses effectuées dans ce mémoire portent exclusivement sur l’habileté des participants à s’adapter aux deux dissociations visuomotrices à la première phase de planification du mouvement. Les résultats suggèrent que les mécanismes de planification du mouvement possèdent une grande capacité d’adaptation aux deux différentes dissociations visuomotrices. Les conclusions liées aux analyses présentées dans ce mémoire suggèrent que les mécanismes impliqués dans la phase de planification et d’initiation du mouvement parviennent relativement bien à s’adapter aux dissociations visuomotrices, miroir et inverse. Bien que les résultats démontrent une certaine distinction, entre les deux groupes à l’étude, quant aux délais nécessaires à cette adaptation, ils illustrent aussi un taux d’adaptation finale relativement similaire. L’analyse des réponses aux sauts de cible pourra être comparée aux résultats présentés dans ce mémoire afin de répondre à l’hypothèse de travail proposée par l’objectif initial de l’étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La division cellulaire asymétrique (DCA) consiste en une division pendant laquelle des déterminants cellulaires sont distribués préférentiellement dans une des deux cellules filles. Par l’action de ces déterminants, la DCA générera donc deux cellules filles différentes. Ainsi, la DCA est importante pour générer la diversité cellulaire et pour maintenir l’homéostasie de certaines cellules souches. Pour induire une répartition asymétrique des déterminants cellulaires, le positionnement du fuseau mitotique doit être très bien contrôlé. Fréquemment ceci génère deux cellules filles de tailles différentes, car le fuseau mitotique n’est pas centré pendant la mitose, ce qui induit un positionnement asymétrique du sillon de clivage. Bien qu’un complexe impliquant des GTPases hétérotrimériques et des protéines liant les microtubules au cortex ait été impliqué directement dans le positionnement du fuseau mitotique, le mécanisme exact induisant le positionnement asymétrique du fuseau durant la DCA n'est pas encore compris. Des études récentes suggèrent qu’une régulation asymétrique du cytosquelette d’actine pourrait être responsable de ce positionnement asymétrique du faisceau mitotique. Donc, nous émettons l'hypothèse que des contractions asymétriques d’actine pendant la division cellulaire pourraient déplacer le fuseau mitotique et le sillon de clivage pour créer une asymétrie cellulaire. Nos résultats préliminaires ont démontré que le blebbing cortical, qui est une indication de tension corticale et de contraction, se produit préférentiellement dans la moitié antérieure de cellule précurseur d’organes sensoriels (SOP) pendant le stage de télophase. Nos données soutiennent l'idée que les petites GTPases de la famille Rho pourraient être impliqués dans la régulation du fuseau mitotique et ainsi contrôler la DCA des SOP. Les paramètres expérimentaux développés pour cette thèse, pour étudier la régulation de l’orientation et le positionnement du fuseau mitotique, ouvrirons de nouvelles avenues pour contrôler ce processus, ce qui pourrait être utile pour freiner la progression de cellules cancéreuses. Les résultats préliminaires de ce projet proposeront une manière dont les petites GTPases de la famille Rho peuvent être impliqués dans le contrôle de la division cellulaire asymétrique in vivo dans les SOP. Les modèles théoriques qui sont expliqués dans cette étude pourront servir à améliorer les méthodes quantitatives de biologie cellulaire de la DCA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les dernières années, une explosion de la recherche sur les ARN a eu lieue à cause de nombreuses découvertes démontrant l’importance de l’ARN dans plusieurs processus biologiques. Ainsi, de grandes quantités d’ARN sont devenues indispensables au bon déroulement de plusieurs études, notamment pour la biologie structurale et la caractérisation fonctionnelle. Cependant, il existe encore peu de méthodes de purification simples, efficaces, fiables et produisant un ARN sous forme native. Dans les dernières années, le laboratoire Legault a mis au point une méthode de purification par affinité utilisant une étiquette ARiBo pour la purification d’ARN transcrits in vitro par la polymérase à ARN du phage T7. Cette méthode de purification d’ARN a été spécifiquement développée pour maximiser la pureté et le rendement. De plus, elle est très rapide et fonctionne avec plusieurs types d’ARN. Cependant, comme plusieurs autres méthodes de purification, cette méthode produit des ARN avec des extrémités 5′ hétérogènes. Dans ce mémoire, des solutions sont proposées pour remédier au problème d’hétérogénéité en 5ʹ′ des ARN transcrits avec la polymérase à ARN du phage T7 et purifiés par la méthode ARiBo. La première solution consiste à choisir la séquence en 5′ parmi celles des 32 séquences testées qui ne présentent pas d’hétérogénéité en 5ʹ′. La seconde solution est d’utiliser une étiquette clivable en 5ʹ′ de l’ARN d’intérêt, tel que le ribozyme hammerhead, déjà utilisée pour ce genre d’application, ou le système CRISPR/Cse3 que nous proposons dans l’article présenté dans ce mémoire. De plus, nous avons adapté la méthode ARiBo pour rendre possible la purification d’un long ARN de 614 nt, le polycistron miR-106b-25. Nous avons également démontré la possibilité d’utiliser la méthode ARiBo pour l’isolation de protéines qui se lient à un ARN donné, le précurseur de miRNA pre-miR-153-2. En conclusion, ce mémoire démontre la possibilité d’adapter la méthode ARiBo à plusieurs applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ma thèse doctorale, j'étudie trois facteurs importants qui caractérisent le commerce international : les différences technologiques entre les pays, les barrières à l'entrée sous la forme de coûts fixes et la migration internationale. Le premier chapitre analyse si les différences technologiques entre les pays peuvent expliquer la spécialisation dans le commerce international entre les pays. Pour mesurer le niveau de la spécialisation, je calcule les index de concentration pour la valeur des importations et des exportations et décompose la concentration totale dans la marge de produits extensive (nombre de produits commercialisés) et la marge de produits intensive (volume de produits commercialisés). En utilisant des données commerciales détaillées au niveau du produit dans 160 pays, mes résultats montrent que les exportations sont plus concentrées que les importations, que la spécialisation se produit principalement au niveau de la marge intensive du produit, et que les économies plus grandes disposent d'importations et d'exportations plus diversifiées, car elles commercialisent plus de produits. Compte tenu de ces faits, j'évalue la capacité du modèle Eaton-Kortum, le principal modèle de la théorie ricardienne du commerce, pour représenter les preuves empiriques. Les résultats montrent que la spécialisation à travers l'avantage comparatif induit par les différences de technologie peut expliquer les faits qualitatifs et quantitatifs. De plus, j'évalue le rôle des déterminants clés de la spécialisation : le degré de l'avantage comparatif, l'élasticité de la substitution et la géographie. Une implication de ces résultats est qu'il est important d’évaluer jusqu'à quel point la volatilité de production mesurée par la volatilité du PIB est motivée par la spécialisation des exportations et des importations. Étant donné le compromis entre l'ouverture du commerce et la volatilité de production, les bénéfices tirés du commerce peuvent s'avérer plus faibles que ceux estimés précédemment. Par conséquent, les politiques commerciales alternatives telles que l'ouverture graduelle au commerce combinée à la diversification de la production pour réduire la concentration de l'exportation peuvent se révéler être une meilleure stratégie que l'approche du laissez-faire. En utilisant la relation entre la taille du marché et l’entrée de firmes et produits, le deuxième chapitre évalue si les barrières à l'entrée sous la forme de coûts fixes à exporter sont au niveau de la firme ou au niveau du produit. Si les coûts fixes se trouvent au niveau de la firme, la firme multiproduits a un avantage de coût de production par rapport aux autres firmes parce qu’elles peuvent diviser les coûts fixes sur plusieurs produits. Dans ce cas, le commerce international sera caractérisé par peu de firmes qui exportent beaucoup des produits. Si les coûts fixes sont au niveau du produit, l’entrée d’un produit est associée avec l’entrée de plusieurs firmes. La raison est qu’une fois que la première firme entre et paye les coûts fixes du produit, elle crée un effet d’entrainement qui réduit les coûts fixes pour des firmes rivales. Dans ce cas, le commerce international sera caractérisé par plusieurs firmes qui vendent des variétés différentes du même produit. En utilisant des données détaillées provenant de 40 pays exportateurs à travers 180 marchés de destination, mes résultats montrent que les barrières à l'entrée se trouvent principalement au niveau du produit. Un marché plus large favorise l'expansion d'un plus grand nombre d’entreprises au sein d'une catégorie de produit plutôt que de permettre aux entreprises produisant plusieurs produits de croître dans une gamme de produits. En regardant la différence entre le nombre d'exportateurs au sein d'une catégorie de produit dans des destinations données, je trouve que le taux d'entrée de firmes augmente significativement après qu'un produit entre la première fois dans le marché. J'en déduis donc que le premier entrant réduit les coûts fixes pour les firmes suivantes. Mes recherches démontrent également que malgré une plus grande compétition sur le marché du produit, les entreprises disposent de revenus d'exportation supérieurs et sont plus susceptibles de rester sur les marchés internationaux. Ces résultats sont cohérents avec l’hypothèse que l’effet d’entrainement incite l'entrée de firmes rivales et permettent aux entreprises de produire à plus grande échelle. Cette recherche dévoile un nombre de conclusions importantes. D'abord, les politiques commerciales encouragent l'entrée de nouveaux produits, par exemple, en promouvant des produits dans les marchés de destination entraînant ainsi des retombées qui se traduiront par un taux de participation plus élevé de l'entreprise et une croissance de l'exportation. Deuxièmement, les consommateurs du pays importateur peuvent bénéficier de prix plus bas pour le produit en réduisant les barrières techniques du commerce. Troisièmement, lorsque l'on effectue des expérimentations politiques sous la forme de réduction des coûts commerciaux, il est de coutume de considérer uniquement une baisse des coûts marginaux et d'évaluer les répercussions sur le bien-être du consommateur. Cependant, un élément important des accords commerciaux est la réduction des barrières techniques au commerce grâce à la négociation de normes communes pour un produit. Négliger l'existence des barrières à l'entrée et les conséquences des réaffectations de l'industrie affaiblit l'impact des réformes commerciales. Le troisième chapitre prend en compte le rôle de l'information dans la facilitation du commerce international. Les immigrants réduisent les coûts de transaction dans le commerce international en fournissant des informations sur les possibilités d'échange avec leur pays d'origine. En utilisant des données géographiques détaillées sur l'immigration et les importations aux États-Unis entre 1970 et 2005, je quantifie l'incidence qu'ont les nouveaux immigrants sur la demande pour les importations de biens intermédiaires aux États-Unis. Pour établir le lien cause à effet entre le commerce et la migration, j’exploite l'important afflux d'immigrants d'Amérique centrale après l'ouragan Mitch. Les résultats montrent que l'augmentation de dix pour cent d'immigrants a fait croître la demande pour les importations de biens intermédiaires de 1,5 pour cent. Mes résultats sont robustes aux problèmes de la causalité inverse ou la décision d’émigrer est causée par des opportunités de faire du commerce.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le jeu vidéo est un produit qui ne cesse de gagner en popularité alors que les expériences ludiques tendent de plus en plus à se diversifier. Les recherches académiques sur l’objet vidéoludique se sont multipliées dans les dernières années afin de comprendre les particularités du nouveau média, surtout en ce qui concerne l’analyse du produit lui-même et sa réception, mais laissant peu de place à sa créa-tion et sa production. Montréal est un lieu idéal pour étudier le médium : en peu de temps, l’industrie du jeu vidéo est devenue l’un des fleurons industriels québécois. La présente étude s’est intéressée aux développeurs de Montréal, ville où se situe la plus grande partie des studios au Québec, afin de connaître leur perception du produit vidéoludique et de l’industrie. Au travers d’une perspective phénoménologique, un séjour ethno-graphique a été effectué dans un studio de production vidéoludique où plusieurs développeurs ont été observés et interviewés. Ce travail s’inscrit dans une anthropologie du travail et rend compte de la com-plexité qui émerge lorsqu’un travail essentiellement créatif vient se heurter à des motifs de production strictes. Plus encore, il rend compte d’un paradigme opposant directement la création et la production dans un milieu qui se présente comme une avenue prometteuse pour une jeunesse désirant vivre d’un travail créatif. Cette condition est attribuable à la nature du jeu vidéo lui-même qui se situe, selon Kline, Dyer-Witheford et De Peuter (2003), à mi-chemin entre la culture, la technologie et les visées commerciales (marketing). Les développeurs se trouvent donc entre deux eaux : d’un côté ils sont influencés par la culture du jeu, relevant de leurs pratiques, leurs préférences et des commu-nautés de développeurs et, de l’autre côté, par l’industrie qui dicte les façons de faire et viennent selon eux minimiser leur potentiel créatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La microscopie par fluorescence de cellules vivantes produit de grandes quantités de données. Ces données sont composées d’une grande diversité au niveau de la forme des objets d’intérêts et possèdent un ratio signaux/bruit très bas. Pour concevoir un pipeline d’algorithmes efficaces en traitement d’image de microscopie par fluorescence, il est important d’avoir une segmentation robuste et fiable étant donné que celle-ci constitue l’étape initiale du traitement d’image. Dans ce mémoire, je présente MinSeg, un algorithme de segmentation d’image de microscopie par fluorescence qui fait peu d’assomptions sur l’image et utilise des propriétés statistiques pour distinguer le signal par rapport au bruit. MinSeg ne fait pas d’assomption sur la taille ou la forme des objets contenus dans l’image. Par ce fait, il est donc applicable sur une grande variété d’images. Je présente aussi une suite d’algorithmes pour la quantification de petits complexes dans des expériences de microscopie par fluorescence de molécules simples utilisant l’algorithme de segmentation MinSeg. Cette suite d’algorithmes a été utilisée pour la quantification d’une protéine nommée CENP-A qui est une variante de l’histone H3. Par cette technique, nous avons trouvé que CENP-A est principalement présente sous forme de dimère.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.