120 resultados para incapacité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En tant qu'acteur important de la vie politique québécoise, le mouvement des femmes a réussi à garantir de nouveaux droits pour les femmes et a fortement contribué à améliorer leurs conditions de vie. Cependant, son incapacité à reconnaître et à prendre en compte les expériences particulières des femmes qui vivent de multiple discriminations a été critiquée entre autres par les femmes autochtones, les femmes de couleur, les femmes immigrantes, les lesbiennes et les femmes handicapées. Par exemple, dans les 40 dernières années, un nombre croissant de femmes immigrantes et racisées se sont organisées en parallèle au mouvement pour défendre leurs intérêts spécifiques. Dans ce mémoire, je me penche sur la façon dont le mouvement des femmes québécois a répondu à leurs demandes de reconnaissance et adapté ses pratiques pour inclure les femmes de groupes ethniques et raciaux minoritaires. Bien que la littérature sur l'intersectionalité ait fourni de nombreuses critiques des tentatives des mouvements sociaux d'inclure la diversité, seulement quelques recherches se sont penchées sur la façon dont les organisations tiennent compte, dans leurs pratiques et discours, des identités et intérêts particuliers des groupes qui sont intersectionnellement marginalisés. En me basant sur la littérature sur l'instersectionnalité et les mouvements sociaux, j'analyse un corpus de 24 entretiens effectués auprès d'activistes travaillant dans des associations de femmes au Québec afin d'observer comment elles comprennent et conceptualisent les différences ethniques et raciales et comment cela influence en retour leurs stratégies d'inclusion. Je constate que la façon dont les activistes conceptualisent l'interconnexion des rapports de genre et de race/ethnicité en tant qu'axes d'oppression des femmes a un impact sur les plateformes politiques des organisations, sur les stratégies qu'elles mettent de l'avant pour favoriser l'inclusion et l'intégration des femmes immigrantes et racisées et sur leur capacité à travailler en coalition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat met en lumière les stratégies narratives déployées dans le récit français actuel pour représenter et construire son présent. L’hypothèse principale que cette recherche vérifie est la suivante : la littérature narrative d’aujourd’hui, par le recours à une énonciation entremêlant discours et narration ainsi que par une utilisation critique et pragmatique du passé, réplique au « présentisme » observé par François Hartog, cette perspective sur les temps dont le point d’observation et le point observé sont le présent. Les écrivains contemporains mettent en place un régime de temporalités où passé et avenir sont coordonnés au présent pour pacifier le rapport entre les trois catégories temporelles et faire apparaître un présent qui, sinon, demeure narrativement insaisissable ou soumis à l’autorité d’un passé ou d’un avenir qui dicte ses actions. En distinguant leurs textes du genre romanesque et du mode narratif qui le compose, Pierre Bergounioux, François Bon, Olivier Cadiot, Chloé Delaume, Annie Ernaux, Jean Echenoz et Olivier Rolin, entre autres, s’inscrivent dans la tradition énonciative du récit, ici entendu comme genre littéraire où l’énonciation et le texte en formation sont à eux-mêmes leur propre intrigue. Le sujet d’énonciation du récit contemporain cherche à élucider son rapport au temps en ayant recours à des scènes énonciatives qui ont à voir avec l’enquête et l’interlocution, de manière à ce que d’une anamnèse personnelle et intellectuelle, de même que de la confrontation d’une mémoire avec son récit jaillissent les caractéristiques d’une expérience du présent. Or, une des caractéristiques du présent expérimenté par le sujet contemporain semble être une résistance à la narration et au récit, rendant alors difficile sa saisie littéraire. Cette opposition au récit est investie par des écrivains qui ont recours, pour donner à voir l’immédiateté du présent, à la note et au journal, de même qu’à des genres littéraires qui mettent en échec la narration, notamment la poésie. En dépit de leurs efforts énonciatifs pour extraire le présent de l’opération qui le transforme en passé, ces écrivains font tout de même l’expérience répétée de la disparition immédiate du présent et de leur incapacité à énoncer littérairement un sentiment du présent. Le seul moyen d’en donner un aperçu reste alors peut-être de chercher à construire le présent à partir du constat répété de l’impossibilité d’un tel accomplissement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Cette thèse est constituée de trois articles liés les uns aux autres. Le premier s’attache à clarifier les perspectives théoriques et problèmes conceptuels entourant la notion de capacité/incapacité au travail, sa définition et son évolution au fil du temps. Les deuxième et troisième articles visent à évaluer les effets différentiels selon le genre de déterminants du retour au travail (RAT) et de la durée d’indemnisation ainsi que les coûts associés, dans une population de travailleurs indemnisés à long terme pour troubles musculosquelettiques (TMS). Méthodes : Dans le premier article, une revue systématique des définitions de l’(in)capacité au travail et une analyse comparative basée sur la théorisation ancrée débouchent sur une carte conceptuelle intégrative. Dans le second article, une cohorte de 455 adultes en incapacité à long terme pour TMS au dos/cou/membres supérieurs est suivie cinq ans au travers d’entretiens structurés et de données d’indemnisation. Des modèles de Cox stratifiés par genre ont été utilisés pour évaluer la durée jusqu’au premier RAT. Dans le troisième article, une cohorte populationnelle de 13,073 hommes et 9032 femmes en incapacité prolongée pour TMS au dos/cou/membres supérieurs a été suivie pendant trois ans à l’aide de données administratives. Des modèles de Cox stratifiés par genre ont été utilisés pour étudier la durée d’indemnisation et détecter les effets dépendants du temps. Les coûts ont également été examinés. Résultats : Les définitions analysées dans la première étude ne reflètent pas une vision intégrée et partagée de l’(in)capacité au travail. Cependant, un consensus relatif semble émerger qu’il s’agit d’un concept relationnel, résultant de l’interaction de multiples dimensions aux niveaux individuel, organisationnel et sociétal. La seconde étude montre que malgré des courbes de survie jusqu’au RAT similaires entre hommes et femmes (p =0.920), plusieurs déterminants diffèrent selon le genre. Les femmes plus âgées (HR=0.734, par tranches de 10 ans), d’un statut économique perçu comme pauvre (HR=0.625), travaillant ≥40 heures/semaine en ayant des personnes à charge (HR=0.508) et ne connaissant pas l’existence d’un programme de santé et sécurité sur leur lieu de travail (HR=0.598) retournent moins vite au travail, tandis qu’un revenu brut annuel plus élevé (par $10,000) est un facteur facilitant (HR=1.225). Les hommes de plus de 55 ans (HR=0.458), au statut économique perçu comme pauvre (HR=0.653), travaillant ≥40 heures/semaine avec une charge de travail physique perçue élevée (HR=0.720) et une plus grande précarité d’emploi (HR=0.825) retournent moins rapidement au travail. La troisième étude a révélé que trois ans après la lésion, 12.3% des hommes et 7.3% des femmes étaient encore indemnisés, avec un ratio de coûts homme-femme pour l’ensemble des réclamations de 2.1 :1. L’effet de certain prédicteurs (e.g. revenu, siège de lésion, industrie) varie selon le genre. De plus, l’effet de l’âge chez les hommes et l’effet de l’historique d’indemnisation chez les femmes varient dans le temps. Conclusion : La façon de définir l’(in)capacité au travail a des implications importantes pour la recherche, l’indemnisation et la réadaptation. Les résultats confirment également la pertinence d’investiguer les déterminants du RAT et de l’indemnisation selon le genre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le virus de l’hépatite C (VHC) est un virus à ARN simple brin positif (ssARN) qui se replique dans le foie. Deux cents millions de personnes sont infectées par le virus dans le monde et environ 80% d’entre elles progresseront vers un stade chronique de l’infection. Les thérapies anti-virales actuelles comme l’interféron (IFN) ou la ribavirin sont de plus en plus utilisées mais ne sont efficaces que dans la moitié des individus traités et sont souvent accompagnées d’une toxicité ou d’effets secondaires indésirables. Le système immunitaire inné est essentiel au contrôle des infections virales. Les réponses immunitaires innées sont activées suite à la reconnaissance par les Pathogen Recognition Receptors (PRRs), de motifs macromoléculaires dérivés du virus appelés Pathogen-Associated Molecular Patterns (PAMPs). Bien que l'activation du système immunitaire par l'ARN ou les protéines du VHC ait été largement étudiée, très peu de choses sont actuellement connues concernant la détection du virus par le système immunitaire inné. Et même si l’on peut très rapidement déceler des réponses immunes in vivo après infection par le VHC, l’augmentation progressive et continue de la charge virale met en évidence une incapacité du système immunitaire à contrôler l’infection virale. Une meilleure compréhension des mécanismes d’activation du système immunitaire par le VHC semble, par conséquent, essentielle au développement de stratégies antivirales plus efficaces. Dans le présent travail nous montrons, dans un modèle de cellule primaire, que le génome ARN du VHC contient des séquences riches en GU capables de stimuler spécifiquement les récepteurs de type Toll (TLR) 7 et 8. Cette stimulation a pour conséquence la maturation des cellules dendritiques plasmacytoïdes (pDCs), le production d’interféron de type I (IFN) ainsi que l’induction de chémokines et cytokines inflammatoires par les différentes types de cellules présentatrices d’antigènes (APCs). Les cytokines produites après stimulation de monocytes ou de pDCs par ces séquences ssARN virales, inhibent la production du virus de façon dépendante de l’IFN. En revanche, les cytokines produites après stimulation de cellules dendritiques myéloïdes (mDCs) ou de macrophages par ces mêmes séquences n’ont pas d’effet inhibiteur sur la production virale car les séquences ssARN virales n’induisent pas la production d’IFN par ces cellules. Les cytokines produites après stimulation des TLR 7/8 ont également pour effet de diminuer, de façon indépendante de l’IFN, l’expression du récepteur au VHC (CD81) sur la lignée cellulaire Huh7.5, ce qui pourrait avoir pour conséquence de restreindre l’infection par le VHC. Quoiqu’il en soit, même si les récepteurs au VHC comme le CD81 sont largement exprimés à la surface de différentes sous populations lymphocytaires, les DCs et les monocytes ne répondent pas aux VHC, Nos résultats indiquent que seuls les macrophages sont capables de reconnaître le VHC et de produire des cytokines inflammatoires en réponse à ce dernier. La reconnaissance du VHC par les macrophages est liée à l’expression membranaire de DC-SIGN et l’engagement des TLR 7/8 qui en résulte. Comme d’autres agonistes du TLR 7/8, le VHC stimule la production de cytokines inflammatoires (TNF-α, IL-8, IL-6 et IL-1b) mais n’induit pas la production d’interféron-beta par les macrophages. De manière attendue, la production de cytokines par des macrophages stimulés par les ligands du TLR 7/8 ou les séquences ssARN virales n’inhibent pas la réplication virale. Nos résultats mettent en évidence la capacité des séquences ssARN dérivées du VHC à stimuler les TLR 7/8 dans différentes populations de DC et à initier une réponse immunitaire innée qui aboutit à la suppression de la réplication virale de façon dépendante de l’IFN. Quoiqu’il en soit, le VHC est capable d’échapper à sa reconnaissance par les monocytes et les DCs qui ont le potentiel pour produire de l’IFN et inhiber la réplication virale après engagement des TLR 7/8. Les macrophages possèdent quant à eux la capacité de reconnaître le VHC grâce en partie à l’expression de DC-SIGN à leur surface, mais n’inhibent pas la réplication du virus car ils ne produisent pas d’IFN. L’échappement du VHC aux défenses antivirales pourrait ainsi expliquer l’échec du système immunitaire inné à contrôler l’infection par le VHC. De plus, la production de cytokines inflammatoires observée après stimulation in vitro des macrophages par le VHC suggère leur potentielle contribution dans l’inflammation que l’on retrouve chez les individus infectés par le VHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse avait pour mandat d’examiner la question suivante : quels sont les indices visuels utilisés pour catégoriser le sexe d’un visage et comment sont-ils traités par le cerveau humain? La plupart des études examinant l’importance de certaines régions faciales pour la catégorisation du sexe des visages présentaient des limites quant à leur validité externe. L’article 1 visait à investiguer l’utilisation des indices achromatiques et chromatiques (sur l’axe xy) dans un contexte de plus grande validité externe. Pour ce faire, nous avons utilisé la technique Bubbles afin d’échantillonner l’espace xy de visages en couleurs n’ayant subi aucune transformation. Afin d’éviter les problèmes liés à la grande répétition des mêmes visages, nous avons utilisé un grand nombre de visages (c.-à-d. 300 visages caucasiens d’hommes et de femmes) et chaque visage n’a été présenté qu’une seule fois à chacun des 30 participants. Les résultats indiquent que la région des yeux et des sourcils—probablement dans le canal blanc-noir—est l’indice le plus important pour discriminer correctement le genre des visages; et que la région de la bouche—probablement dans le canal rouge-vert—est l’indice le plus important pour discriminer rapidement et correctement le genre des visages. Plusieurs études suggèrent qu’un indice facial que nous n’avons pas étudié dans l’article 1—les distances interattributs—est crucial à la catégorisation du sexe. L’étude de Taschereau et al. (2010) présente toutefois des données allant à l’encontre de cette hypothèse : les performances d’identification des visages étaient beaucoup plus faibles lorsque seules les distances interattributs réalistes étaient disponibles que lorsque toutes les autres informations faciales à l’exception des distances interattributs réalistes étaient disponibles. Quoi qu’il en soit, il est possible que la faible performance observée dans la condition où seules les distances interattributs étaient disponibles soit explicable non par une incapacité d’utiliser ces indices efficacement, mais plutôt par le peu d’information contenue dans ces indices. L’article 2 avait donc comme objectif principal d’évaluer l’efficacité—une mesure de performance qui compense pour la faiblesse de l’information disponible—des distances interattributs réalistes pour la catégorisation du sexe des visages chez 60 participants. Afin de maximiser la validité externe, les distances interattributs manipulées respectaient la distribution et la matrice de covariance observées dans un large échantillon de visages (N=515). Les résultats indiquent que les efficacités associées aux visages ne possédant que de l’information au niveau des distances interattributs sont un ordre de magnitude plus faibles que celles associées aux visages possédant toute l’information que possèdent normalement les visages sauf les distances interattributs et donnent le coup de grâce à l’hypothèse selon laquelle les distances interattributs seraient cuciale à la discrimination du sexe des visages. L’article 3 avait pour objectif principal de tester l’hypothèse formulée à la fin de l’article 1 suivant laquelle l’information chromatique dans la région de la bouche serait extraite très rapidement par le système visuel lors de la discrimination du sexe. Cent douze participants ont chacun complété 900 essais d’une tâche de discrimination du genre pendant laquelle l’information achromatique et chromatique des visages était échantillonnée spatiotemporellement avec la technique Bubbles. Les résultats d’une analyse présentée en Discussion seulement confirme l’utilisation rapide de l’information chromatique dans la région de la bouche. De plus, l’utilisation d’un échantillonnage spatiotemporel nous a permis de faire des analyses temps-fréquences desquelles a découlé une découverte intéressante quant aux mécanismes d’encodage des informations spatiales dans le temps. Il semblerait que l’information achromatique et chromatique à l’intérieur d’une même région faciale est échantillonnée à la même fréquence par le cerveau alors que les différentes parties du visage sont échantillonnées à des fréquences différentes (entre 6 et 10 Hz). Ce code fréquentiel est compatible avec certaines évidences électrophysiologiques récentes qui suggèrent que les parties de visages sont « multiplexées » par la fréquence d’oscillations transitoires synchronisées dans le cerveau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est relativement bien établi que les crises focales entraînent une augmentation régionale du flot sanguin dans le but de soutenir la demande énergétique en hémoglobine oxygénée des neurones épileptiques. Des changements hémodynamiques précoces ont également été rapportés dans la région homologue controlatérale, bien que ceci ait été moins bien caractérisé. Dans cette étude, notre objectif est de mieux caractériser, lors de crises focales, la nature des changements hémodynamiques précoces dans la région homologue controlatérale au foyer épileptique. L'imagerie optique intrinsèque (IOI) et la microscopie deux-photons sont utilisées pour étudier les changements hémodynamiques dans la région homologue controlatérale au site de crises focales induites par l’injection de 4-aminopyridine (4-AP) dans le cortex somatosensitif ipsilatéral de souris. Dans l'étude d'IOI, des changements de l’oxyhémoglobine (HbO), de la désoxyhémoglobine (HbR) et du débit sanguin cérébral ont été observées dans la région homologue controlatérale au site de crises focales lors de toutes les crises. Toutefois, ces changements étaient hétérogènes, sans patron cohérent et reproduisible. Nos expériences avec la microscopie deux-photons n’ont pas révélé de changements hémodynamiques significatifs dans la région homotopique controlatérale lors de trains de pointes épileptiques. Nos résultats doivent être interprétés avec prudence compte tenu de plusieurs limitations: d’une part absence de mesures électrophysiologiques dans la région d’intérêt controlatérale au foyer simultanément à l’imagerie deux-photons et à l'IOI; d’autre part, lors des expériences avec le deux-photons, incapacité à générer de longues décharges ictales mais plutôt des trains de pointes, couverture spatiale limitée de la région d’intérêt controlatérale, et faible puissance suite au décès prématuré de plusieurs souris pour diverses raisons techniques. Nous terminons en discutant de divers moyens pour améliorer les expériences futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude vise à dégager certaines des traces des discours antérieurs (cotextuels) qui sont la matière même du roman « Allah n’est pas obligé », à la fois sur le plan de l’écriture et sur celui d’une mémoire douloureuse. Il s’agit de montrer que la « poétique de l’explication » qui caractérise le roman constitue une stratégie de dévoilement des rhétoriques fallacieuses destinées à occulter l’inadmissible. En effet, le recours constant aux dictionnaires n’est que l’effet le plus visible d’une poétique englobante qui consiste à confronter les uns aux autres les discours sur le monde, discours en deçà des mots inscrits dans le texte comme une mémoire en palimpseste, afin de faire ressortir leur incapacité à expliquer des réalités aussi inhumaines que le sort que subissent les enfants-soldats. Le roman de Kourouma met ainsi en évidence deux attitudes possibles face aux atrocités indicibles des guerres oubliées des temps présents : soit on en nie le caractère insensé en multipliant les discours d’explication, soit l’on dénonce toute tentative de manipulation des discours visant à rendre sensé l’insensé. La première posture est illustrée par le « blablabla » du narrateur Birahima ; la deuxième est celle du roman lui-même.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho foi desenvolvido analisando-se a lenda heróica da família dos Atridas, através da trilogia grega Orestéia, de Ésquilo, relacionando-a com Les mouches, de Sartre, e com Électre, de Giraudoux, comparando-as também com as duas Electra, a de Sófocles e a de Eurípides, partindo da análise do “texto como produtividade”, segundo Roland Barthes, que trabalha a reescritura do texto realizada pelo leitor. Os textos escolhidos foram produzidos e encenados em momentos de guerra ou de sua iminência e, através do estudo dos ordenamentos jurídicos vigentes em cada época, foi possível comprovar que, na Atenas do século V, ocorre a construção do conceito de responsabilidade individual, superando-se a imposição da punição aos familiares e à descendência do criminoso, enquanto que na França ocupada pelo exército nazista ocorre o inverso: a responsabilidade pelos assassinatos cometidos pela Resistência é atribuída a toda a comunidade. Confrontamos as relações de poder engendradas e expostas nos textos, refletindo as que estavam ocorrendo no contexto histórico-político, concluindo que a tragédia grega se inseriu como mediadora da realidade político-social da polis, ao contrário das releituras francesas, que tinham uma inserção periférica na sociedade francesa de 1937 a 1944. É em busca de um sentimento de continuidade e de transcendência que ocorre o retorno às tragédias gregas e às suas releituras, visto que narram lendas heróicas que relembram, mesmo ao homem do século XXI, sua mortalidade e sua incapacidade de prever os desdobramentos de suas ações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent étude analyse les effets de la politique de financement de l éducation de base, par les Fonds contables, Fundef et Fundeb, et sa proposition de valorisation de l enseignement, en considerant les dimensions de la carrière et de la rémunération des professeurs de l éducation publique de l état du Rio Grande do Norte, entre les années de 1996 et 2000. Pour comprendre les contraintes de l évaluation des politiques publiques, en cherchant aussi les contribution en Marx (1996) selon qui « le concret est concret » et que la dialétique du concret peut appuyer pour la tentative de capter le fenomène étudié. On a utilisé encore le référentiel bibliographique relatif au financement de l éducation et la valorisation de l enseignement à partir de la littérature reférente aux dimensions de l objet (Fundef et Fundeb) et (carrière et rémuneration). Dans la recherche documental, au-delà des législations, directrices nationales et locales pertinentes, se sont utilisés des donnés référents aux ressources, disponibles à la Finbra, Trésor National, SIOPE/RN, INEP/MEC, des informations du résumé de la feuille et feuille de payement du Secrétariat d État, de l Éducation et de la Culture (SEEC) et 289 bulletins de salaire de 21 professeurs. On a réalisé interview semi structurée avec une quantité de 9 professeurs, reférent à la carrière, et un questionaire appliqué à 12 professeurs relatif à la remuneration. On considère que sur les résultats reférents aux indicateurs éducationnel, dans la période Fundef il y a eu une réduction des inscriptions aux écoles de l état comme aussi aux fonctions des professeurs de l Enseignement Fondamental, et cela correspond à 37%. À partir de la vigence du Fondebe (2007 - 2010) ces indicateurs ont équalisé. Pendant toute la période, 1996 et 2010 il y a eu une augmentation des inscriptions de 119,03%, et aussi aux fonctions des professeurs de 77,44%. Par rapport aux informations de financement, on a constaté que, du minimum exigé (60%) sur l aplication des fonds à la rémuneration de l enseignant, on applique pour la période des deux fonds, plus que le minimum exigé, c est-à-dire de 83,29% à 98,89% des fonds. Les effets des fonds sur la carrière des 9 professeurs n ont pas été satisfactoires, si l on considère la promotion et la progression. Au cas de la promotion des 9 de ces professeurs, un seul a évolué son niveau (les titres) mais a, au même temps, rétroagit dans sa progression. Pour la progression des 9 professeurs, 8 d entre eux ont sa progression retardée, ce qui correspond à entre 2 et 5 classes, et ce qui provoque un préjudice qui varie entre 10% à 45% sur sa remunération. La différence d une classe à l autre correspond à 5% de son salaire. On évalue que les avantages financières contribuent pour la remunération avec un pourcentage plus élevé que son salaire, ce qui diminuent pendant lo Fundeb. Par rapport à la remunération un professeur de 24 ans de service avec formation, n arrive même pas à gagner 2 salaires minimums. Le professeur de 30 ans de service, maître, reçoit un salaire, en 2010, qui correspond a moins de 3 salaires minimums, c est-à-dire, une proportion de 2,82 et une remuneration qui correspond à un peu plus que 3 salaires minimums, c est-à-dire, une proportion de 3,66. L enseignement n est pas très favorisé si on le met face à d autres profession qui ont aussi l exigence de formation supérieure, ce qui provoque un effet négatif pour voir l enseignement comme profession. À propos des effets sur la rémuneration, on conclue qu il y a eu une amélioration mais encore insufisante, surtout si l on compare au Salaire Minimum annuel. On évalue que les fonds Fundef et Fundeb n ont pas été capables de promouvoir la valorisation de l enseignement dans le contexte de carrière et rémuneration. On observe quelques résultats négatif dans la politique de fonds, une fois qu il y aurait en avoir avec l incapacité de tel politique en promouvoir la dite valorisation de l enseignement, ce qui est une des causes, le financement avec des restriction budgétaire

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Estudos Literários - FCLAR

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi è stato studiato l’effetto dell’esposizione della diatomea Skeletonema marinoi, una specie molto comune nel Nord Adriatico e importante per il suo annuale contributo alla produzione primaria, agli erbicidi maggiormente utilizzati nella pianura Padana e riscontrati in acque dolci e salmastre di zone limitrofe al mare Adriatico. Gli erbicidi scelti consistono in terbutilazina e metolachlor, i più frequentemente riscontrati sia nelle acque superficiali che in quelle sotterranee dell’area Padana, noti per avere un effetto di inibizione su vie metaboliche dei vegetali; inoltre è stato valutato anche l’effetto di un prodotto di degradazione della terbutilazina, la desetilterbutilazina, presente anch’esso in concentrazioni pari al prodotto di origine e su cui non si avevano informazioni circa la tossicità sul fitoplancton. L’esposizione delle microalghe a questi erbicidi può avere effetti che si ripercuotono su tutto l’ecosistema: le specie fitoplanctoniche, in particolare le diatomee, sono i produttori primari più importanti dell’ecosistema: questi organismi rivestono un ruolo fondamentale nella fissazione del carbonio, rappresentando il primo anello della catena alimentari degli ambienti acquatici e contribuendo al rifornimento di ossigeno nell’atmosfera. L’effetto di diverse concentrazioni di ciascun composto è stato valutato seguendo l’andamento della crescita e dell’efficienza fotosintetica di S. marinoi. Per meglio determinare la sensibilità di questa specie agli erbicidi, l’effetto della terbutilazina è stato valutato anche al variare della temperatura (15, 20 e 25°C). Infine, dal momento che gli organismi acquatici sono solitamente esposti a una miscela di composti, è stato valutato l’effetto sinergico di due erbicidi, entrambi somministrati a bassa concentrazione. Le colture di laboratorio esposte a concentrazioni crescenti di diversi erbicidi e, in un caso, anche a diverse temperature, indicano che l’erbicida al quale la microalga mostra maggiore sensibilità è la Terbutilazina. Infatti a parità di concentrazioni, la sensibilità della microalga alla Terbutilazina è risultata molto più alta rispetto al suo prodotto di degradazione, la Desetilterbutilazina e all’erbicida Metolachlor. Attraverso l’analisi di densità algale, di efficienza fotosintetica, di biovolume e di contenuto intracellulare di Carbonio e Clorofilla, è stato dimostrato l’effetto tossico dell’erbicida Terbutilazina che, agendo come inibitore del trasporto degli elettroni a livello del PS-II, manifesta la sua tossicità nell’inibizione della fotosintesi e di conseguenza sulla crescita e sulle proprietà biometriche delle microalghe. E’ stato visto come la temperatura sia un parametro ambientale fondamentale sulla crescita algale e anche sugli effetti tossici di Terbutilazina; la temperatura ideale per la crescita di S. marinoi è risultata essere 20°C. Crescendo a 15°C la microalga presenta un rallentamento nella crescita, una minore efficienza fotosintetica, variazione nei valori biometrici, mostrando al microscopio forme irregolari e di dimensioni inferiori rispetto alle microalghe cresciute alle temperature maggiori, ed infine incapacità di formare le tipiche congregazioni a catena. A 25° invece si sono rivelate difficoltà nell’acclimatazione: sembra che la microalga si debba abituare a questa alta temperatura ritardando così la divisione cellulare di qualche giorno rispetto agli esperimenti condotti a 15° e a 20°C. Gli effetti della terbutilazina sono stati maggiori per le alghe cresciute a 25°C che hanno mostrato un calo più evidente di efficienza fotosintetica effettiva e una diminuzione di carbonio e clorofilla all’aumentare delle concentrazioni di erbicida. Sono presenti in letteratura studi che attestano gli effetti tossici paragonabili dell’atrazina e del suo principale prodotto di degradazione, la deetilatrazina; nei nostri studi invece non sono stati evidenziati effetti tossici significativi del principale prodotto di degradazione della terbutilazina, la desetilterbutilazina. Si può ipotizzare quindi che la desetilterbutilazina perda la propria capacità di legarsi al sito di legame per il pastochinone (PQ) sulla proteina D1 all’interno del complesso del PSII, permettendo quindi il normale trasporto degli elettroni del PSII e la conseguente sintesi di NADPH e ATP e il ciclo di riduzione del carbonio. Il Metolachlor non evidenzia una tossicità severa come Terbutilazina nei confronti di S. marinoi, probabilmente a causa del suo diverso meccanismo d’azione. Infatti, a differenza degli enzimi triazinici, metolachlor agisce attraverso l’inibizione delle elongasi e del geranilgeranil pirofosfato ciclasi (GGPP). In letteratura sono riportati casi studio degli effetti inibitori di Metolachlor sulla sintesi degli acidi grassi e di conseguenza della divisione cellulare su specie fitoplanctoniche d’acqua dolce. Negli esperimenti da noi condotti sono stati evidenziati lievi effetti inibitori su S. marinoi che non sembrano aumentare all’aumentare della concentrazione dell’erbicida. E’ interessante notare come attraverso la valutazione della sola crescita non sia stato messo in evidenza alcun effetto mentre, tramite l’analisi dell’efficienza fotosintetica, si possa osservare che il metolachlor determina una inibizione della fotosintesi.