840 resultados para Sérum-albumine humaine
Resumo:
A presente tese apresenta uma proposta de mudança lógico-epistemológica na abordagem do tema da realização dos direitos humanos universais: de uma lógica binária de conformidade jurídica para uma lógica de graus de compatibilidade jurídica. Realiza, ainda, uma exposição sobre a obra de Mireille Delmas-Marty, com foco na doutrina do pluralismo ordenado, cuja noção enfrenta o desafio lógico que é conciliar a universalidade dos direitos humanos com a diversidade cultural. A tese apresenta o pluralismo ordenado estruturado sobre o seguinte tripé: admitir, pensar e resguardar o múltiplo. Admitir o múltiplo é assumir que os limites do conjunto dos direitos humanos é difuso, impreciso, permeável. Pensar o múltiplo é rever as noções de tempo, espaço e hierarquia para os direitos humanos. Resguardar o múltiplo é forjar mecanismos que conciliem controle e flexibilidade, como a margem nacional de apreciação elaborada pela Corte Europeia de Direitos Humanos. A partir disso, a tese explora essa noção como uma espécie de margem de incerteza que exige transparência e zelo para a manutenção da ordem em um contexto plural. Ademais, aponta os critérios comumente utilizados para a verificação da extensão da margem: destacadamente parâmetros relacionados à natureza do direito em questão, à construção de uma jurisprudência internacional e à identificação de uma harmonia entre as legislações nacionais. Este tripé conduz a um projeto de harmonização jurídica em escala global, norteada pelos direitos humanos, afastando, em regra, a pretensão de unificação normativa, sendo que o limite dessa harmonização encontra-se nos crimes contra a humanidade, em razão da violação da diversidade dos seres humanos. A presente tese demonstra que essa necessidade de mudança lógica está em sintonia com as transformações ocorridas nas últimas décadas na ciência e na filosofia da lógica. Apresenta a lógica difusa como ícone do rompimento com o princípio binário da lógica clássica e como fundamento para a mudança da perspectiva de conformidade para graus de compatibilidade. Defende, por fim, um pluralismo lógico, em que teorias clássica e não clássica devem ser consideradas como ferramentas a serem aplicadas a diferentes desafios.
Resumo:
La conservation des groupements à Pistacia atlantica dans la région de Béchar est actuellement menacée par une forte pression humaine et animale. Ce travail consiste à proposer une analyse phyto-écologique fine en se basant sur la dynamique de végétation et les inventaires floristiques. Les explications sont étayées par une analyse statistique (AFC) afin de mieux cerner les facteurs écologiques prépondérants. Nous savons très bien que Pistacia atlantica est une espèce d’avenir pour l’Algérie occidentale, son adaptation au stress écologique lui permet une dynamique et une remontée biologique certaine. Cette espèce peut vivre dans des endroits très secs, de 700 à 1200m d’altitude où la pluviométrie ne dépasse guère les 100 mm/an, avec une température maximale de 42°C et un quotient pluviothermique (Q2) supérieur à 7. La diversité floristique du groupement à Pistacia atlantica est très particulière du fait de sa caractérisation biologique, systématique et phytogéographique. Cet examen fait ressortir l’importance des espèces Saharienne-Endémiques grâce à une adaptation et une résistance plus favorables sous bioclimat typiquement saharien.
Resumo:
Grady distinguishes two main types of metaphor in order to provide a solution in the controversies stemming from the conceptual theory of metaphor: correlation-based metaphors and resemblance metaphors. In “correlation-based metaphors”, the source domain is sensory-motor, while the target domain is not. On the contrary, “resemblance metaphors” are originated by a physical or conceptual perception which is common in both domains, by the association of concepts with common features. Primary metaphors are the minimal units of correlation-based metaphors; they are inherent in human nature and the result of the nature of our brain, our body and the world that we inhabit. We acquire them automatically and we cannot avoid them. Furthermore, as corporal experiences are universal, so are primary metaphors. In this paper, I will argue that primary metaphors manifest themselves visually through scene-setting techniques such as composition, framing, camera movement or lighting. Film-makers can use the different aspects of mise-en-scène metaphorically in order to express abstract notions like evil, importance, control, relationship or confusion. Such visual manifestations, as also occurs with their verbal equivalents, frequently go unnoticed or have been used so often that they have become clichés. But the important thing to bear in mind is that their origin lies in a primary metaphor and due to this origin these kinds of film-making strategies have been so expressively successful.
Resumo:
Le présent article offre une brève réflexion sur la présence de la pensée de Søren Kierkegaard dans le cycle de l’Absurde de l’œuvre d’Albert Camus. On essayera de montrer comment, en partageant un climat philosophique marqué par l’exaltation du paradoxe et la contradiction en tant que signes distinctifs de l’existence concrète de l’individu, les deux auteurs se séparent en ce qui concerne les conséquences qui découlent de la considération de l’absurdité de la condition humaine. En prenant Camus en tant que lecteur de Kierkegaard, le propos de cette étude sera donc, plutôt qu’une exposition étendue des deux pensées, celui de dévoiler les principaux thèmes de la réflexion kierkegaardienne qu’il faut tenir en compte pour comprendre, en contraposition à celle-ci, toute l’originalité de la pensée camusienne.
Resumo:
Le projet d’une Anthropologie Philosophique en tant que philosophie fondamentale defini par Helmuth Plessner, se base sur la catégorie d’excentricité: l’homme occupe une place à la fois centrée et décentrée, soit en tant qu’être au monde, soit dans le rapport à son corps, tantôt vécu comme identité personnelle, tantôt usé en tant qu’instrument. Cette dualité fondamentale de la condition humaine et de son existence dialectique mène à une compréhension de l’expressivité en tant que double. Ou bien l’expression suit une voie indicative (par le langage, les gestes et la mimique) quand l’homme est son corps, ou bien, quand le corps est usé en tant qu’instrument de réponse, l’expressivité devient opaque. L’article propose une lecture de ce point spécifique de la théorie de l’expression, thème central du livre de 1941, Rire et pleurer. Une étude des limites du comportement humain. Décrire la signification et le processus déclencheur du rire et du pleurer c’est donc saisir l’homme au sein même de son ambivalence.
Resumo:
L'exposition aux mélanges de contaminants (environnementaux, alimentaires ou thérapeutiques) soulève de nombreuses interrogations et inquiétudes vis-à-vis des probabilités d'interactions toxicocinétiques et toxicodynamiques. Une telle coexposition peut influencer le mode d’action des composants du cocktail et donc de leur toxicité, suite à un accroissement de leurs concentrations internes. Le bisphénol A (4 dihydroxy-2,2-diphenylpropane) est un contaminant chimique répandu de manière ubiquitaire dans notre environnement, largement utilisé dans la fabrication des plastiques avec l’un des plus grands volumes de production à l’échelle mondiale. Il est un perturbateur endocrinien par excellence de type œstrogèno-mimétique. Cette molécule est biotransformée en métabolites non toxiques par un processus de glucuronidation. L'exposition concomitante à plusieurs xénobiotiques peut induire à la baisse le taux de glucuronidation du polluant chimique d'intérêt, entre autres la co-exposition avec des médicaments. Puisque la consommation de produits thérapeutiques est un phénomène grandissant dans la population, la possibilité d’une exposition simultanée est d’autant plus grande et forte. Sachant que l'inhibition métabolique est le mécanisme d'interaction le plus plausible pouvant aboutir à une hausse des niveaux internes ainsi qu’à une modulation de la toxicité prévue, la présente étude visait d'abord à confirmer et caractériser ce type d'interactions métaboliques entre le bisphénol A et le naproxène, qui est un anti-inflammatoire non stéroïdiennes (AINS), sur l'ensemble d'un organe intact en utilisant le système de foie de rat isolé et perfusé (IPRL). Elle visait ensuite à déterminer la cinétique enzymatique de chacune de ces deux substances, seule puis en mélange binaire. Dans un second temps, nous avons évalué aussi l’influence de la présence d'albumine sur la cinétique métabolique et le comportement de ces deux substances étudiées en suivant le même modèle de perfusion in vivo au niveau du foie de rat. Les constantes métaboliques ont été déterminées par régression non linéaire. Les métabolismes du BPA et du NAP seuls ont montré une cinétique saturable avec une vélocité maximale (Vmax) de 8.9 nmol/min/ mg prot de foie et une constante d'affinité de l'enzyme pour le substrat (Km) de 51.6 μM pour le BPA et de 3 nmol/min/mg prot de foie et 149.2 μM pour le NAP. L'analyse des expositions combinées suggère une inhibition compétitive partielle du métabolisme du BPA par le NAP avec une valeur de Ki estimée à 0.3542 μM. Les résultats obtenus montrent que l’analyse de risque pour les polluants environnementaux doit donc prendre en considération la consommation des produits pharmaceutiques comme facteur pouvant accroitre le niveau interne lors d’une exposition donnée. Ces données in vivo sur les interactions métaboliques pourraient être intégrées dans un modèle pharmacocinétique à base physiologique (PBPK) pour prédire les conséquences toxicococinétique (TK) de l'exposition d'un individu à ces mélanges chimiques.
Resumo:
La sclérodermie (SSc) est une maladie rare affectant les personnes génétiquement prédisposées d’une réponse immunitaire défectueuse. Malgré les derniers avancements et développements dans le domaine, l’étiologie et la pathogénèse de la maladie demeurent peu comprises. Par ailleurs, il y a un ralentissement dans la compréhension de cette maladie à cause du manque de modèle animal représentatif de la SSc humaine. Malgré plusieurs lacunes, les souris traitées avec la bléomycine ou portant des modifications génétiques (TSK-1) sont très utilisées dans les études précliniques de la SSc mais elles ne présentent pas toutes les caractéristiques de cette maladie. Pour contribuer à la recherche sur la SSc, la stagiaire postdoctorale Dre Heena Mehta a développé dans le laboratoire du Dre Sarfati en collaboration avec le Dr Senécal, un modèle de souris expérimental induit par l’immunisation de cellules dendritiques (DCs) chargées de peptides de la protéine topoisomérase I (TOPOIA et TOPOIB). Dans le but de caractériser ce modèle murin et d’établir un profil immunitaire, j’ai concentré mes analyses principalement sur les caractéristiques de la SSc telles que la fibrose, l’inflammation, l’hyper-γ-globulinémie polyclonale, la vasculopathie ainsi que de l’expression de cytokines. Brièvement, l’immunisation de souris avec les DCs chargées avec la topoisomérase I (TOPOI) a induit l’inflammation pulmonaire et cutanée, en plus de la fibrose sous forme diffuse (dcSSc). Les souris présentaient également des symptômes de la vasculopathie ainsi que des taux élevés d’anticorps polyclonaux. Les résultats démontraient que les peptides TOPOIA étaient efficaces dans l’induction de la fibrose et de la réponse inflammatoire alors que les peptides TOPOIB étaient surtout impliqués dans la fibrose cutanée. En plus de nos résultats, les observations préliminaires sur le profil de cytokines tissulaires suggéraient que ce modèle pourrait remplacer ou complémenter les autres modèles animaux de SSc.
Resumo:
Introduction : Le dalcetrapib, inhibiteur de la glycoprotéine hydrophobe de transfert des esters de cholestérol (CETP), a été étudié dans le cadre de l’essai clinique de phase II dal-PLAQUE2 (DP2). L’objectif principal est d’étudier l’effet du dalcetrapib après 1 an de traitement sur la structure et la fonction des HDL dans une sous-population de la cohorte DP2. Méthode : Les sujets de la cohorte DP2 ayant une série de mesures de cIMT et des échantillons de plasma et sérum au baseline et à 1 an de traitement furent sélectionnés (379 sujets: 193 du groupe placebo (PCB) et 186 du groupe dalcetrapib (DAL)). Des données biochimiques prédéterminées, le profil des concentrations et tailles des sous-classes de HDL et LDL en résonance magnétique nucléaire (RMN) et 2 mesures de capacité d’efflux de cholestérol (CEC) du sérum ont été explorées. Les données statistiques furent obtenues en comparant les changements à un an à partir du « baseline » avec un ANOVA ou ANCOVA. La procédure normalisée de fonctionnement d’essai d’efflux de cholestérol permet de calculer l’efflux fractionnel (en %) de 3H-cholestérol des lignées cellulaires BHK-ABCA1 (fibroblastes) et J774 (macrophages, voie ABCA1) et HepG2 (hépatocytes, voie SR-BI), vers les échantillons sériques de la cohorte DP2. Résultats : Pour la biochimie plasmatique, un effet combiné des changements d’activité de CETP dans les 2 groupes a causé une réduction de 30% dans le groupe DAL. Après 1 an de traitement dans le groupe DAL, la valeur de HDL-C a augmenté de 35,5% (p < 0,001) et l’apoA-I a augmenté de 14,0% (p < 0,001). Au profil RMN, dans le groupe DAL après 1 an de traitement, il y a augmentation de la taille des HDL-P (5,2%; p < 0,001), des grosses particules HDL (68,7%; p < 0,001) et des grosses particules LDL (37,5%; p < 0,01). Les petites particules HDL sont diminuées (-9,1%; p < 0,001). Il n’y a aucune différence significative de mesure de cIMT entre les deux groupes après 1 an de traitement. Pour la CEC, il y a augmentation significative par la voie du SR-BI et une augmentation via la voie ABCA1 dans le groupe DAL après 1 an de traitement. Conclusion : Après un an de traitement au dalcetrapib, on note une hausse de HDL-C, des résultats plutôt neutres au niveau du profil lipidique par RMN et une CEC augmentée mais trop faible pour affecter la valeur de cIMT chez les échantillons testés.
Resumo:
Afin d’effectuer des études fonctionnelles sur le génome de la souris, notre laboratoire a généré une bibliothèque de clones de cellules souches embryonnaires (ESC) présentant des suppressions chromosomiques chevauchantes aléatoires – la bibliothèque DELES. Cette bibliothèque contient des délétions couvrant environ 25% du génome murin. Dans le laboratoire, nous comptons identifier de nouveaux déterminants du destin des cellules hématopoïétiques en utilisant cet outil. Un crible primaire utilisant la benzidine pour démontrer la présence d'hémoglobine dans des corps embryoïdes (EBS) a permis d’identifier plusieurs clones délétés présentant un phénotype hématopoïétique anormal. Comme cet essai ne vérifie que la présence d'hémoglobine, le but de mon projet est d'établir un essai in vitro de différenciation des ESC permettant de mesurer le potentiel hématopoïétique de clones DELES. Mon hypothèse est que l’essai de différenciation hématopoïétique publié par le Dr Keller peut être importé dans notre laboratoire et utilisé pour étudier l'engagement hématopoïétique des clones DELES. À l’aide d’essais de RT-QPCR et de FACS, j’ai pu contrôler la cinétique de différenciation hématopoïétique en suivant l’expression des gènes hématopoïétiques et des marqueurs de surface comme CD41, c-kit, RUNX1, GATA2, CD45, β-globine 1 et TER-119. Cet essai sera utilisé pour valider le potentiel hématopoïétique des clones DELES candidats identifiés dans le crible principal. Mon projet secondaire vise à utiliser la même stratégie rétro-virale a base de Cre-loxP utilisée pour générer la bibliothèque DELES pour générer une bibliothèque de cellules KBM-7 contenant des suppressions chromosomiques chevauchantes. Mon but ici est de tester si la lignée cellulaire leuémique humaine presque haploïde KBM-7 peut être exploitée en utilisant l'approche DELES pour créer cette bibliothèque. La bibliothèque de clones KBM-7 servira à définir les activités moléculaires de drogues anti-leucémiques potentielless que nous avons identifiées dans le laboratoire parce qu’elles inhibent la croissance cellulaire dans plusieurs échantillons de leucémie myéloïde aiguë dérivés de patients. Elle me permettra également d'identifier les voies de signalisation moléculaires qui, lorsque génétiquement perturbées, peuvent conférer une résistance à ces drogues.
Resumo:
Le papier bioactif est obtenu par la modification de substrat du papier avec des biomolécules et des réactifs. Ce type de papier est utilisé dans le développement de nouveaux biocapteurs qui sont portables, jetables et économiques visant à capturer, détecter et dans certains cas, désactiver les agents pathogènes. Généralement les papiers bioactifs sont fabriqués par l’incorporation de biomolécules telles que les enzymes et les anticorps sur la surface du papier. L’immobilisation de ces biomolécules sur les surfaces solides est largement utilisée pour différentes applications de diagnostic comme dans immunocapteurs et immunoessais mais en raison de la nature sensible des enzymes, leur intégration au papier à grande échelle a rencontré plusieurs difficultés surtout dans les conditions industrielles. Pendant ce temps, les microcapsules sont une plate-forme intéressante pour l’immobilisation des enzymes et aussi assez efficace pour permettre à la fonctionnalisation du papier à grande échelle car le papier peut être facilement recouvert avec une couche de telles microcapsules. Dans cette étude, nous avons développé une plate-forme générique utilisant des microcapsules à base d’alginate qui peuvent être appliquées aux procédés usuels de production de papier bioactif et antibactérien avec la capacité de capturer des pathogènes à sa surface et de les désactiver grâce à la production d’un réactif anti-pathogène. La conception de cette plate-forme antibactérienne est basée sur la production constante de peroxyde d’hydrogène en tant qu’agent antibactérien à l’intérieur des microcapsules d’alginate. Cette production de peroxyde d’hydrogène est obtenue par oxydation du glucose catalysée par la glucose oxydase encapsulée à l’intérieur des billes d’alginate. Les différentes étapes de cette étude comprennent le piégeage de la glucose oxydase à l’intérieur des microcapsules d’alginate, l’activation et le renforcement de la surface des microcapsules par ajout d’une couche supplémentaire de chitosan, la vérification de la possibilité d’immobilisation des anticorps (immunoglobulines G humaine comme une modèle d’anticorps) sur la surface des microcapsules et enfin, l’évaluation des propriétés antibactériennes de cette plate-forme vis-à-vis l’Escherichia coli K-12 (E. coli K-12) en tant qu’un représentant des agents pathogènes. Après avoir effectué chaque étape, certaines mesures et observations ont été faites en utilisant diverses méthodes et techniques analytiques telles que la méthode de Bradford pour dosage des protéines, l’électroanalyse d’oxygène, la microscopie optique et confocale à balayage laser (CLSM), la spectrométrie de masse avec désorption laser assistée par matrice- temps de vol (MALDI-TOF-MS), etc. Les essais appropriés ont été effectués pour valider la réussite de modification des microcapsules et pour confirmer à ce fait que la glucose oxydase est toujours active après chaque étape de modification. L’activité enzymatique spécifique de la glucose oxydase après l’encapsulation a été évaluée à 120±30 U/g. Aussi, des efforts ont été faits pour immobiliser la glucose oxydase sur des nanoparticules d’or avec deux tailles différentes de diamètre (10,9 nm et 50 nm) afin d’améliorer l’activité enzymatique et augmenter l’efficacité d’encapsulation. Les résultats obtenus lors de cette étude démontrent les modifications réussies sur les microcapsules d’alginate et aussi une réponse favorable de cette plate-forme antibactérienne concernant la désactivation de E. coli K-12. La concentration efficace de l’activité enzymatique afin de désactivation de cet agent pathogénique modèle a été déterminée à 1.3×10-2 U/ml pour une concentration de 6.7×108 cellules/ml de bactéries. D’autres études sont nécessaires pour évaluer l’efficacité de l’anticorps immobilisé dans la désactivation des agents pathogènes et également intégrer la plate-forme sur le papier et valider l’efficacité du système une fois qu’il est déposé sur papier.
Resumo:
La traduction automatique statistique est un domaine très en demande et où les machines sont encore loin de produire des résultats de qualité humaine. La principale méthode utilisée est une traduction linéaire segment par segment d'une phrase, ce qui empêche de changer des parties de la phrase déjà traduites. La recherche pour ce mémoire se base sur l'approche utilisée dans Langlais, Patry et Gotti 2007, qui tente de corriger une traduction complétée en modifiant des segments suivant une fonction à optimiser. Dans un premier temps, l'exploration de nouveaux traits comme un modèle de langue inverse et un modèle de collocation amène une nouvelle dimension à la fonction à optimiser. Dans un second temps, l'utilisation de différentes métaheuristiques, comme les algorithmes gloutons et gloutons randomisés permet l'exploration plus en profondeur de l'espace de recherche et permet une plus grande amélioration de la fonction objectif.
Resumo:
L'exposition aux mélanges de contaminants (environnementaux, alimentaires ou thérapeutiques) soulève de nombreuses interrogations et inquiétudes vis-à-vis des probabilités d'interactions toxicocinétiques et toxicodynamiques. Une telle coexposition peut influencer le mode d’action des composants du cocktail et donc de leur toxicité, suite à un accroissement de leurs concentrations internes. Le bisphénol A (4 dihydroxy-2,2-diphenylpropane) est un contaminant chimique répandu de manière ubiquitaire dans notre environnement, largement utilisé dans la fabrication des plastiques avec l’un des plus grands volumes de production à l’échelle mondiale. Il est un perturbateur endocrinien par excellence de type œstrogèno-mimétique. Cette molécule est biotransformée en métabolites non toxiques par un processus de glucuronidation. L'exposition concomitante à plusieurs xénobiotiques peut induire à la baisse le taux de glucuronidation du polluant chimique d'intérêt, entre autres la co-exposition avec des médicaments. Puisque la consommation de produits thérapeutiques est un phénomène grandissant dans la population, la possibilité d’une exposition simultanée est d’autant plus grande et forte. Sachant que l'inhibition métabolique est le mécanisme d'interaction le plus plausible pouvant aboutir à une hausse des niveaux internes ainsi qu’à une modulation de la toxicité prévue, la présente étude visait d'abord à confirmer et caractériser ce type d'interactions métaboliques entre le bisphénol A et le naproxène, qui est un anti-inflammatoire non stéroïdiennes (AINS), sur l'ensemble d'un organe intact en utilisant le système de foie de rat isolé et perfusé (IPRL). Elle visait ensuite à déterminer la cinétique enzymatique de chacune de ces deux substances, seule puis en mélange binaire. Dans un second temps, nous avons évalué aussi l’influence de la présence d'albumine sur la cinétique métabolique et le comportement de ces deux substances étudiées en suivant le même modèle de perfusion in vivo au niveau du foie de rat. Les constantes métaboliques ont été déterminées par régression non linéaire. Les métabolismes du BPA et du NAP seuls ont montré une cinétique saturable avec une vélocité maximale (Vmax) de 8.9 nmol/min/ mg prot de foie et une constante d'affinité de l'enzyme pour le substrat (Km) de 51.6 μM pour le BPA et de 3 nmol/min/mg prot de foie et 149.2 μM pour le NAP. L'analyse des expositions combinées suggère une inhibition compétitive partielle du métabolisme du BPA par le NAP avec une valeur de Ki estimée à 0.3542 μM. Les résultats obtenus montrent que l’analyse de risque pour les polluants environnementaux doit donc prendre en considération la consommation des produits pharmaceutiques comme facteur pouvant accroitre le niveau interne lors d’une exposition donnée. Ces données in vivo sur les interactions métaboliques pourraient être intégrées dans un modèle pharmacocinétique à base physiologique (PBPK) pour prédire les conséquences toxicococinétique (TK) de l'exposition d'un individu à ces mélanges chimiques.
Resumo:
Le papier bioactif est obtenu par la modification de substrat du papier avec des biomolécules et des réactifs. Ce type de papier est utilisé dans le développement de nouveaux biocapteurs qui sont portables, jetables et économiques visant à capturer, détecter et dans certains cas, désactiver les agents pathogènes. Généralement les papiers bioactifs sont fabriqués par l’incorporation de biomolécules telles que les enzymes et les anticorps sur la surface du papier. L’immobilisation de ces biomolécules sur les surfaces solides est largement utilisée pour différentes applications de diagnostic comme dans immunocapteurs et immunoessais mais en raison de la nature sensible des enzymes, leur intégration au papier à grande échelle a rencontré plusieurs difficultés surtout dans les conditions industrielles. Pendant ce temps, les microcapsules sont une plate-forme intéressante pour l’immobilisation des enzymes et aussi assez efficace pour permettre à la fonctionnalisation du papier à grande échelle car le papier peut être facilement recouvert avec une couche de telles microcapsules. Dans cette étude, nous avons développé une plate-forme générique utilisant des microcapsules à base d’alginate qui peuvent être appliquées aux procédés usuels de production de papier bioactif et antibactérien avec la capacité de capturer des pathogènes à sa surface et de les désactiver grâce à la production d’un réactif anti-pathogène. La conception de cette plate-forme antibactérienne est basée sur la production constante de peroxyde d’hydrogène en tant qu’agent antibactérien à l’intérieur des microcapsules d’alginate. Cette production de peroxyde d’hydrogène est obtenue par oxydation du glucose catalysée par la glucose oxydase encapsulée à l’intérieur des billes d’alginate. Les différentes étapes de cette étude comprennent le piégeage de la glucose oxydase à l’intérieur des microcapsules d’alginate, l’activation et le renforcement de la surface des microcapsules par ajout d’une couche supplémentaire de chitosan, la vérification de la possibilité d’immobilisation des anticorps (immunoglobulines G humaine comme une modèle d’anticorps) sur la surface des microcapsules et enfin, l’évaluation des propriétés antibactériennes de cette plate-forme vis-à-vis l’Escherichia coli K-12 (E. coli K-12) en tant qu’un représentant des agents pathogènes. Après avoir effectué chaque étape, certaines mesures et observations ont été faites en utilisant diverses méthodes et techniques analytiques telles que la méthode de Bradford pour dosage des protéines, l’électroanalyse d’oxygène, la microscopie optique et confocale à balayage laser (CLSM), la spectrométrie de masse avec désorption laser assistée par matrice- temps de vol (MALDI-TOF-MS), etc. Les essais appropriés ont été effectués pour valider la réussite de modification des microcapsules et pour confirmer à ce fait que la glucose oxydase est toujours active après chaque étape de modification. L’activité enzymatique spécifique de la glucose oxydase après l’encapsulation a été évaluée à 120±30 U/g. Aussi, des efforts ont été faits pour immobiliser la glucose oxydase sur des nanoparticules d’or avec deux tailles différentes de diamètre (10,9 nm et 50 nm) afin d’améliorer l’activité enzymatique et augmenter l’efficacité d’encapsulation. Les résultats obtenus lors de cette étude démontrent les modifications réussies sur les microcapsules d’alginate et aussi une réponse favorable de cette plate-forme antibactérienne concernant la désactivation de E. coli K-12. La concentration efficace de l’activité enzymatique afin de désactivation de cet agent pathogénique modèle a été déterminée à 1.3×10-2 U/ml pour une concentration de 6.7×108 cellules/ml de bactéries. D’autres études sont nécessaires pour évaluer l’efficacité de l’anticorps immobilisé dans la désactivation des agents pathogènes et également intégrer la plate-forme sur le papier et valider l’efficacité du système une fois qu’il est déposé sur papier.
Resumo:
La traduction automatique statistique est un domaine très en demande et où les machines sont encore loin de produire des résultats de qualité humaine. La principale méthode utilisée est une traduction linéaire segment par segment d'une phrase, ce qui empêche de changer des parties de la phrase déjà traduites. La recherche pour ce mémoire se base sur l'approche utilisée dans Langlais, Patry et Gotti 2007, qui tente de corriger une traduction complétée en modifiant des segments suivant une fonction à optimiser. Dans un premier temps, l'exploration de nouveaux traits comme un modèle de langue inverse et un modèle de collocation amène une nouvelle dimension à la fonction à optimiser. Dans un second temps, l'utilisation de différentes métaheuristiques, comme les algorithmes gloutons et gloutons randomisés permet l'exploration plus en profondeur de l'espace de recherche et permet une plus grande amélioration de la fonction objectif.
Resumo:
Includes bibliographical references (p. [195]-208).