1000 resultados para Orthographes approchées


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de la direction du temps est un problème classique autant en physique qu’en philosophie. Quoiqu’il existe plusieurs façons de s’interroger sur ce problème, l’approche thermodynamique est la plus fréquemment utilisée. Cette approche consiste à considérer la flèche du temps thermodynamique comme la flèche fondamentale de laquelle les autres flèches ne sont que des manifestations. Ce mémoire vise à fournir une analyse philosophique de cette approche. Pour ce faire, nous esquisserons la problématique générale, nous exposerons les différentes approches et théories alternatives visant à résoudre ce problème et nous présenterons la thèse forte soutenant l’approche thermodynamique. Ensuite, nous évaluerons la pertinence du recours à la mécanique statistique et à la cosmologie visant à remédier aux déficiences de cette même approche. Enfin, nous analyserons en quoi cette approche, et plus particulièrement la notion d’entropie, est en mesure de fournir un cadre conceptuel pour la résolution du problème de la flèche du temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réalité des femmes vivant avec le VIH (FVVIH) et désireuses d’avoir un enfant soulève un ensemble d’enjeux de santé publique et de promotion de la santé. Les études réalisées jusqu’à maintenant se sont surtout orientées sur les dimensions épidémiologiques et biomédicales de la maternité en contexte de VIH. Peu d’entre elles ont cependant tenu compte des expériences et des besoins du point de vue des FVVIH mais surtout de l’importance et des significations qu’elles accordent à la maternité. Le projet de maternité contribue à leur sens de l’existence et constitue une modalité de transformation du rapport au VIH et d’auto-transcendance. Cette perspective en tant que stratégie de promotion de la santé n’a pas été non plus suffisamment explorée. L’objectif général de cette thèse, à partir d’un cadre théorique fondé sur les approches féministes de la construction sociale de la maternité, des représentations du risque et des stratégies d’adaptation à la maladie, est d’analyser les expériences de maternité chez des FVVIH montréalaises. Au plan méthodologique, cette thèse s’appuie sur l’analyse qualitative secondaire d’entrevues, réalisées auprès de 42 FVVIH d’origine canadienne-française, africaine et haïtienne et recrutées dans des milieux hospitalier et communautaire. Ces entrevues portent sur leurs expériences quotidiennes en relation avec le VIH, leurs enjeux sociaux, leur famille et leurs relations interpersonnelles. Les données ont été analysées et interprétées selon les étapes de la théorie ancrée avec validation inter-juges. Une analyse typologique a aussi été effectuée pour dégager les modèles de maternité présents dans les discours à partir de deux types d’analyses à savoir, la « méthode relationnelle centrée sur la voix » et celle de « la logique d’action ». Trois articles scientifiques, présentant les résultats de l’analyse, ont été soumis. Le premier article décrit les modèles idéologiques de la maternité dans cette population (croissance personnelle ; réalisation sociale ; accomplissement de soi et de complétude) et ses répercussions sur la gestion du VIH (traitements, dévoilement, soins aux enfants). Le second article dégage la manière dont les femmes, selon leur modèle idéologique de la maternité, s’approprient les informations et les conseils provenant des intervenants de la santé et construisent le risque biologique associé à la maternité dans le contexte du VIH. Il cerne aussi les stratégies utilisées pour réaliser leur projet reproductif en conformité ou non avec les injonctions biomédicales. Le troisième article décrit les façons dont le projet de maternité oriente le rapport au VIH, le sens de l’existence et les expériences d’auto-transcendance des femmes (préserver un statut, un rôle et une image sociale ; transformer le rapport à la mort ; faciliter l’acceptation et la transformation du rapport à la maladie ; donner un sens et une direction à l’existence). À partir d’une réflexion sur l’articulation entre les données présentées dans les trois articles, un modèle théorique intégrateur est proposé. Les retombées de cette étude sur la recherche et l’intervention dans une perspective de promotion de la santé sont esquissées. Des pistes de transfert et de partage des connaissances sont aussi proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fichiers accompagnant le document sont en format Microsoft Excel 2010.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’époque où il n'existait qu'un choix restreint de modes de paiement est à présent révolue. En effet, de l'apparition de la monnaie fiduciaire aux trente glorieuses, ils n’avaient que très peu évolué. Or, depuis quelques décennies, nous assistons à l’apparition de nombreux moyens de paiement, tous plus différents les uns des autres. Notre présente étude a non seulement pour objectif d’en confronter les principaux en vue d’identifier le plus adéquat face à une situation donnée, mais aussi et surtout de discuter de l’anonymat que ces derniers procurent ou non. Pour ce faire, nous avons d’abord présenté chacun de ces moyens tout en en définissant les fonctionnements et les technologies. Par la suite, une comparaison par l'entremise d'une analyse indépendante a été réalisée sur la base d’éléments précis tels que la protection de la vie privée ou encore les propriétés ACID. Des critères omme la confiance des utilisateurs (sécurité) et les attentes qu'ont les institutions financières vis-à-vis de ces derniers ont aussi été considérés. Et enfin, trois méthodes de paiement qui sont en réalité des approches-solutions pour pallier aux problèmes liés à l’anonymat que présentent certains principaux moyens de paiement connus, ont été présentées à leur tour. Ainsi, le premier système de paiement proposé est axé sur les comptes bancaires anonymes, tandis que le second est, lui inspiré du système des jetons; Si bien qu’une combinaison de ces deux approches a conduit à une troisième, afin d’en regrouper les avantages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prévalence des allergies alimentaires IgE-médiées aurait triplé au cours de la dernière décennie avec des études Nord-Américaines atteignant les 8% chez les enfants. Quoiqu’il n’y ait à ce jour aucun traitement curatif pour les allergies alimentaires, l’immunothérapie oral (OIT) constitue une nouvelle approche expérimentale prometteuse. Cette dernière consiste en l’administration de doses progressive d’allergènes par voie orale sur une période prolongée dans le but d’instaurer un état de désensibilisation et possiblement une tolérance orale soutenue. Cette approche a été démontrée sécuritaire et permettrait la désensibilisation à haute dose de plus de 80% des participants allergiques aux arachides, lait ou œufs. Dans cette thèse, nous présentons 2 études de phase 1 portant sur des protocoles d’OIT, destinés à optimiser l’efficience du traitement chez les sujets avec allergies alimentaires multiples. Près de 30% des enfants avec allergie alimentaire sont allergiques à plus d’un aliment, une proportion qui augmente à 70% lorsqu’on considère les cas les plus sévères. Ces enfants sont à risque augmenté de réactions accidentelles et souffrent d’un impact plus grand sur leur qualité de vie. Dans la première étude, en créant un mélange individualisé avec un ratio stochiométrique 1:1 entre les protéines des aliments allergiques de l’enfant, nous démontrons qu’il est possible de désensibiliser jusqu’à 5 aliments simultanément avec un profil d’innocuité similaire à une monothérapie. Dans la seconde étude, nous utilisons un traitement à l’omalizumab, un anticorps monoclonal anti-IgE, pour permettre une désensibilisation orale multi-allergénique fortement accélérée. Lorsque comparé à l’approche sans omalizumab, ce protocole s’associe à une nette diminution du temps requis pour atteindre les doses d’entretien, passant d’une médiane de 21 à 4 mois, sans affecter le profil d’innocuité. Alors que ces études fournissent des approches cliniques raisonnables pour désensibiliser la population multi-allergique, plusieurs questions persistent, notamment en ce qui a trait à l’induction de tolérance permanente. Une barrière majeure à cet égard réside dans notre piètre compréhension des mécanismes sous-jacents à l’immunothérapie. Prenant avantage d’échantillons cliniques bien caractérisés provenant des essais cliniques ci-haut mentionnés, nous utilisons les nouvelles technologies de séquençage TCR pour suivre la distribution clonale des lymphocytes T spécifiques aux arachides durant une immunothérapie orale. Nous démontrons que l’OIT s’associe à des changements significatifs dans les fréquences des clones spécifiques, suggérant un processus d’épuisement clonal et de remplacement. Nous démontrons par ailleurs que le test de prolifération lymphocytaire, traditionnellement utilisé pour évaluer la réponse cellulaire allergique, est dominé par une distribution polyclonale hautement non-spécifique. Cette observation a des implications majeures considérant que la plupart de la littérature actuelle sur la réponse T se base sur cette technique. En somme, cette thèse jette les bases pour des programmes de recherche translationnelle pour optimiser et personnaliser les protocoles cliniques actuels et développer de nouvelles avenues d’investigation et de traitement pour améliorer la prise en charge des sujets avec allergies alimentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avènement récent des approches littéraires en études bibliques a suscité un regain d’intérêt pour le livre de Daniel, et attiré l’attention autant sur ses qualités littéraires que sur sa véritable fonction sociale. Le livre de Daniel comprend deux sections : six récits (Daniel 1-6) et quatre visions (Daniel 7-12). Les récits racontent la confrontation entre la royauté divine céleste et la royauté humaine terrestre, au travers l’histoire de Daniel et ses amis, jeunes israélites exilés à la cour babylonienne. La méthode narrative explore comment se concrétise la narrativité dans un texte en procédant à l’inventaire des caractéristiques fondamentales d’un récit : l’intrigue, les personnages, le cadre, la temporalité et la voix narrative. Ce mémoire propose une analyse narrative systématique des récits du livre canonique de Daniel afin d’examiner l’évolution narrative du concept théologique de royauté. Cette approche permet d’accéder à un niveau textuel où l’intertextualité, l’ironie, le symbolisme et la polysémie imprègnent fortement ces récits subversifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Certaines études ont démontrés que les connexions entre l’aire prémotrice ventrale (PMv) et la région de la main du cortex moteur primaire (M1) sont distribuées non-uniformément, ciblant des sous-régions spécifiques dans M1. Dans la présente étude nous avons voulu développer ces résultats en étudiant la distribution au sein de M1 des projections corticales issues de PMv, l’aire prémotrice dorsale (PMd), l’aire motrice supplémentaire (SMA) et les aires pariétales 1, 2 et 5. Pour se faire, nous avons combiné des approches électrophysiologiques et anatomiques chez trois singes naïfs du Nouveau Monde (Cebus apella) pour examiner l’organisation et la spécificité topographique des projections corticales dans M1. Nos résultats indiquent que quatre sous-régions à l’intérieur de la région dédiée à la main reçoivent des inputs prédominants de différentes aires sensorimotrices. Ces résultats suggèrent que des sous-régions de M1 puissent avoir des fonctions spécifiques pour le contrôle moteur de la main et des doigts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche exploratoire a pour objet d’étude la mise en œuvre des interventions d’activation pour l’emploi auprès des prestataires de l’assistance sociale en situation de grande vulnérabilité au Québec. Elle cherche à décrire les pratiques mises en œuvre par des intervenants de la première ligne (« street-level ») au sein des organismes communautaires œuvrant en employabilité, dans le cadre des mesures et programmes de l’agence Emploi- Québec, dans un contexte de contractualisation et partenariat entre le gouvernement et le secteur à but non lucratif. Le mémoire cherche à identifier les processus qui peuvent influencer les pratiques de la première ligne de services lors de l’interaction avec les destinataires du système intégré d’aide financière de dernier recours et d’aide à l’emploi, de même qu’à comprendre les rapports de force en présence lors de la mise en œuvre des interventions. L’on veut répondre aux deux questions suivantes : Quel est le poids relatif du cadre institutionnel du système d’activation et du pouvoir discrétionnaire des intervenants de la première ligne travaillant directement avec les prestataires les plus vulnérables, au sein des organismes communautaires en employabilité? Plus précisément, comment ces deux types de processus interagissent-ils entre eux, pour produire la politique telle que mise en œuvre? On se base sur des approches théoriques sur la mise en œuvre des politiques inspirées des perspectives de « street level bureaucracy » (Lipsky, 1971, 1980; Smith et Lipsky, 1993 ; Hupe & Hill, 2007 ; Brodkin, 2007, 2011, 2012, 2015; Rice, 2012), du néo-institutionnalisme discursif (Schmidt, 2008, 2010) et de l’Ethnographie institutionnelle (Smith, 1999, 2006; Campbell & Gregor, 2008). On considère que la mise en œuvre de la politique d’activation entraîne non seulement une « appropriation » du cadre institutionnel et systémique par les intervenants de première ligne, mais aussi une co-construction de la politique dans un contexte de gouvernance spécifique. La stratégie de recherche est qualitative et s’inspire de l’approche de l’ethnographie institutionnelle en sociologie, qui propose une méthodologie pour retracer les effets des institutions sur les travailleurs dans leur vie quotidienne (Smith, 2005, 1999, 1987; Campbell and Gregor, 2008). Elle comprend : i) des entretiens avec des intervenants communautaires qui fournissent des services d’aide et d’accompagnement pour l’intégration en emploi portant sur certains dossiers de prestataires du système; ii) des entretiens avec des coordinatrices d’organismes communautaires œuvrant en employabilité, et iii) une collecte et une analyse de la documentation institutionnelle et du cadre de réglementation pour la mise en œuvre du système d’activation. L'analyse aborde le discours institutionnel d'une part et, d'autre part, le discours des répondants du secteur communautaire en employabilité concernant leurs interventions auprès des prestataires dans le cadre des programmes et mesures d’E-Q, et leurs « explications » des pratiques quotidiennes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que l’intérêt pour les processus d’intégration des immigrants et des minorités ethniques est en pleine croissance parmi les chercheurs européens, les facteurs qui expliquent les différentes formes de participation civique et politique doivent être examinés plus en profondeur. Prenant pour base la littérature sur l’immigration, cette étude examine la question de recherche suivante: Comment peut-on expliquer les variations des formes de participation civique et politique des activistes issus de l’immigration au niveau local? Afin de répondre à cette question, cette étude identifie les formes de participation de la part d’activistes issus de l’immigration dans quatre villes Italiennes et examine les discours et les pratiques de multiples acteurs impliqués dans le domaine de l’immigration dans un contexte national d’hostilité croissante. Cette thèse soutient que pour comprendre différentes formes de participation, il est important de considérer non seulement l’État et les acteurs institutionnels, mais aussi les acteurs non-institutionnels et examiner comment ces derniers influencent les opportunités ainsi que les restrictions à la participation. Par ailleurs, cette recherche examine les canaux conventionnels et non-conventionnels dans quatre villes italiennes et étudie les activistes issus de l’immigration comme des acteurs politiques pertinents, capables de se mobiliser et d’influencer la participation à travers leur interaction et alliances avec les acteurs de la société d’accueil. Cette recherche a permis de produire trois résultats. Le premier montre que les approches d’intégration adoptées par les acteurs sont importantes. Cette étude a identifié trois approches d’intégration: 1) « welfariste », basée sur l’idée que les immigrants sont dans le besoin et doivent donc recevoir des services; 2) interculturelle, basée sur l’idée que les immigrants sont de futurs citoyens et que l’intégration est réciproque; 3) promotion des droits politiques, basée sur l’idée que les immigrants ont des droits politiques fondamentaux ; et qui encourage l’ouverture des canaux de participation politique, surtout aux immigrants privés du droit de vote local. L’analyse empirique démontre que, alors que l’approche welfariste n’encourage pas la participation parce qu’elle conçoit les immigrants comme des acteurs passifs, les autres deux approches ont respectivement un impact sur les formes de participation civique et politique. La deuxième conclusion souligne le rôle des acteurs de gauche. En particulier, cette étude montre que les acteurs qui ouvrent de canaux pour la participation ne sont pas uniquement les acteurs de gauche modérée, comme les autorités locales, les partis politiques et les syndicats, mais aussi les groupes de gauche radicale et non-institutionnelle. Chaque acteur de gauche comprend et agit différemment par rapport aux sujets de l’immigration et de la participation et ce fait influence comment les activistes issues de l’immigration se mobilisent. La troisième conclusion met en évidence le rôle de la perception des opportunités par les activistes issus de l’immigration et la façon avec laquelle ils s’approprient les discours et les pratiques des acteurs de gauche. Ce travail démontre que l’ouverture de canaux est possible grâce à l’engagement de personnes issues de l’immigration qui agissent à travers les opportunités qui leurs sont offertes, créent des alliances avec la gauche et défient les discours et pratiques des acteurs locaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fonctions génératrices des coefficients de Clebsch Gordan pour la superalgèbre de Lie osp(1|2) sont dérivées en utilisant deux approches. Une première approche généralise une méthode proposée par Granovskii et Zhedanov pour l'appliquer dans le cas de osp(1|2), une algèbre dont le coproduit est torsadé. Une seconde approche repose sur la réalisation de osp(1|2) en tant qu'algèbre dynamique d'un oscillateur parabosonique et utilise une équivalence dans cette réalisation entre le changements de coordonnées polaires à cartésiennes et le problème de Clebsch-Gordan. Un chapitre moins formel précède ces dérivations et présente comment le problème de Clebsch-Gordan s'interprète en tant que réalisation d'une algèbre de fusion. La notion abstraite de fusion est introduite, soulignant son importance en physique, pour en venir au cas particulier du problème de Clebsch-Gordan. Un survol du cas de l'algèbre osp(1|2) et de ses utilisations en physique mathématique conclut ce chapitre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur le capital social et les mesures prises afin de se préparer aux aléas naturels aux Philippines. L’archipel est régulièrement soumis à de nombreux risques de catastrophe, générant parfois des conséquences désastreuses pour la population et le patrimoine économique du pays. Par ailleurs, ces îles portent un lourd héritage colonial rendant omniprésents les inégalités socioéconomiques, le manque de solidarité et la pauvreté. Le concept du capital social demeure encore très polémique, cependant nous croyons qu'il peut s'avérer utile afin de mieux réfléchir à la façon dont les sociétés humaines interagissent avec les aléas naturels. Nos recherches mettent en avant l’importance des inégalités socioéconomiques, du contexte et de l'échelle géographique dans l’analyse du capital social et de la préparation aux aléas. Elles soulignent d'autre part que la compréhension des dynamiques sociales, telles que la confiance et la participation communautaire, ne peut être atteinte sans une considération des contextes politiques. Nous avons porté une attention particulière à l'examen des contextes et des différentes formes de capital social, et ce, à plusieurs niveaux géographiques (village, municipalité, région, pays). Un nombre croissant d'études montre que l'inégalité économique entraîne des conséquences néfastes sur le capital social. Des recherches récentes ont également commencé à interroger les rapports entre le capital social et les catastrophes dites « naturelles ». Notre thèse établit un lien entre ces deux approches en couplant une analyse générale de la situation des Philippines à une étude approfondie d'une municipalité rurale isolée de la région des Visayas orientales. L'argument central de cette thèse est que l'inégalité économique produit des effets néfastes sur le capital social, entraînant des répercussions négatives sur la prévention des catastrophes « naturelles ». Par le biais de l'analyse de plusieurs échelles géographiques, cette thèse entend montrer comment les inégalités, de par leur impact sur le capital social, contribuent à augmenter les chances de voir les aléas naturels se constituer en désastres. Nous avançons qu'un usage circonspect du concept de capital social, prenant en compte les complexités politiques, historiques, et géographiques du contexte auquel il s'applique, a la capacité d'améliorer la manière dont les gens se préparent collectivement afin d'éviter que les aléas ne se transforment en catastrophes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.