827 resultados para Champ visuel
Resumo:
La navigation repose en majeure partie sur la vision puisque ce sens nous permet de rassembler des informations spatiales de façon simultanée et de mettre à jour notre position par rapport à notre environnement. Pour plusieurs aveugles qui se fient à l’audition, le toucher, la proprioception, l’odorat et l’écholocation pour naviguer, sortir à l’extérieur de chez soi peut représenter un défi considérable. Les recherches sur le circuit neuronal de la navigation chez cette population en particulier s’avèrent donc primordiales pour mieux adapter les ressources aux handicapés visuels et réussir à les sortir de leur isolement. Les aveugles de naissance constituent aussi une population d’intérêt pour l’étude de la neuroplasticité. Comme leur cerveau s’est construit en absence d’intrant visuel, la plupart des structures reliées au sens de la vue sont réduites en volume par rapport à ceux de sujets voyants. De plus, leur cortex occipital, une région normalement dédiée à la vision, possède une activité supramétabolique au repos, ce qui peut représenter un territoire vierge pouvant être recruté par les autres modalités pour exécuter diverses tâches sensorielles. Plusieurs chercheurs ont déjà démontré l’implication de cette région dans des tâches sensorielles comme la discrimination tactile et la localisation auditive. D’autres changements plastiques de nature intramodale ont aussi été observés dans le circuit neuronal de la navigation chez ces aveugles. Par exemple, la partie postérieure de l’hippocampe, impliquée dans l’utilisation de cartes mentales, est réduite en volume alors que la section antérieure est élargie chez ces sujets. Bien que ces changements plastiques anatomiques aient bel et bien été observés chez les aveugles de naissance, il reste toutefois à les relier avec leur aspect fonctionnel. Le but de la présente étude était d’investiguer les corrélats neuronaux de la navigation chez l’aveugle de naissance tout en les reliant avec leurs habiletés spatio-cognitives. La première étude comportementale a permis d’identifier chez les aveugles congénitaux une difficulté d’apprentissage de routes tactiles construites dans des labyrinthes de petite échelle. La seconde étude, employant la technique d’imagerie par résonance magnétique fonctionnelle, a relié ces faiblesses au recrutement de régions cérébrales impliquées dans le traitement d’une perspective égocentrique, comme le lobule pariétal supérieur droit. Alors que des sujets voyants aux yeux bandés excellaient dans la tâche des labyrinthes, ces derniers recrutaient des structures impliquées dans un traitement allocentrique, comme l’hippocampe et le parahippocampe. Par ailleurs, la deuxième étude a confirmé le recrutement du cortex occipital dans une tâche de navigation chez les aveugles seulement. Ceci confirme l’implication de la plasticité intermodale dans des tâches cognitives de plus haut niveau, comme la navigation.
Resumo:
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles.
Resumo:
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0.002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques.
Resumo:
La voix humaine constitue la partie dominante de notre environnement auditif. Non seulement les humains utilisent-ils la voix pour la parole, mais ils sont tout aussi habiles pour en extraire une multitude d’informations pertinentes sur le locuteur. Cette expertise universelle pour la voix humaine se reflète dans la présence d’aires préférentielles à celle-ci le long des sillons temporaux supérieurs. À ce jour, peu de données nous informent sur la nature et le développement de cette réponse sélective à la voix. Dans le domaine visuel, une vaste littérature aborde une problématique semblable en ce qui a trait à la perception des visages. L’étude d’experts visuels a permis de dégager les processus et régions impliqués dans leur expertise et a démontré une forte ressemblance avec ceux utilisés pour les visages. Dans le domaine auditif, très peu d’études se sont penchées sur la comparaison entre l’expertise pour la voix et d’autres catégories auditives, alors que ces comparaisons pourraient contribuer à une meilleure compréhension de la perception vocale et auditive. La présente thèse a pour dessein de préciser la spécificité des processus et régions impliqués dans le traitement de la voix. Pour ce faire, le recrutement de différents types d’experts ainsi que l’utilisation de différentes méthodes expérimentales ont été préconisés. La première étude a évalué l’influence d’une expertise musicale sur le traitement de la voix humaine, à l’aide de tâches comportementales de discrimination de voix et d’instruments de musique. Les résultats ont démontré que les musiciens amateurs étaient meilleurs que les non-musiciens pour discriminer des timbres d’instruments de musique mais aussi les voix humaines, suggérant une généralisation des apprentissages perceptifs causés par la pratique musicale. La seconde étude avait pour but de comparer les potentiels évoqués auditifs liés aux chants d’oiseaux entre des ornithologues amateurs et des participants novices. L’observation d’une distribution topographique différente chez les ornithologues à la présentation des trois catégories sonores (voix, chants d’oiseaux, sons de l’environnement) a rendu les résultats difficiles à interpréter. Dans la troisième étude, il était question de préciser le rôle des aires temporales de la voix dans le traitement de catégories d’expertise chez deux groupes d’experts auditifs, soit des ornithologues amateurs et des luthiers. Les données comportementales ont démontré une interaction entre les deux groupes d’experts et leur catégorie d’expertise respective pour des tâches de discrimination et de mémorisation. Les résultats obtenus en imagerie par résonance magnétique fonctionnelle ont démontré une interaction du même type dans le sillon temporal supérieur gauche et le gyrus cingulaire postérieur gauche. Ainsi, les aires de la voix sont impliquées dans le traitement de stimuli d’expertise dans deux groupes d’experts auditifs différents. Ce résultat suggère que la sélectivité à la voix humaine, telle que retrouvée dans les sillons temporaux supérieurs, pourrait être expliquée par une exposition prolongée à ces stimuli. Les données présentées démontrent plusieurs similitudes comportementales et anatomo-fonctionnelles entre le traitement de la voix et d’autres catégories d’expertise. Ces aspects communs sont explicables par une organisation à la fois fonctionnelle et économique du cerveau. Par conséquent, le traitement de la voix et d’autres catégories sonores se baserait sur les mêmes réseaux neuronaux, sauf en cas de traitement plus poussé. Cette interprétation s’avère particulièrement importante pour proposer une approche intégrative quant à la spécificité du traitement de la voix.
Resumo:
Dans la première partie, nous présentons les résultats de l'étude du supraconducteur sans inversion de symétrie LaRhSi3 par spectroscopie muonique. En champ nul, nous n'avons pas détecté de champ interne. Ceci indique que la fonction d'onde de l'état supraconducteur n'est pas dominée par l'état triplet. Les mesures en champ transverse de 35G présentent une transition en accord avec la transition de phase attendue sous le champ critique Hc1. Nous avons répété ces mesures pour un champ entre Hc1 et Hc2, 150G. Le spectre obtenu pour ces mesures conserve l'asymétrie et relaxe rapidement à basse température tel que prédit pour un supraconducteur dans la phase d'Abrikosov. Néanmoins, les relaxations produites par ce balayage en température présentent une transition à près de 2 fois la température critique attendue. Dans la deuxième partie de ce mémoire, nous donnons l'interprétation des résultats de la diffraction neutronique inélastique par l'étude des champs électriques cristallins. Ces mesures ont été effectuées sur des aimants frustrés SrHo2O4 et SrDy2O4 sous la forme de poudre. L'étude des niveaux produits par les champs cristallins par la méthode des opérateurs de Stevens indique une perte du moment cinétique dans les deux matériaux. Pour le SrDy2O4, l'état fondamental serait constitué de quatre états dégénérés quasi accidentellement qui portent un moment magnétique total non-nul. Toute fois, nos mesures de susceptibilité magnétique ne montrent aucun ordre au-dessus de 50mK. Pour le SrHo2O4, le fondamental est formé d'une paire accidentelle. Nous obtenons un moment magnétique de 6.94(8)$\mu_B$ ce qui s'accorde avec les données expérimentales.
Resumo:
L’objectif général de ce mémoire est de comprendre l‘impact du genre sur l’identité de travail des cowboys, dans leur milieu de travail et de vie dans un ranch du Canada. Cette étude vise à contribuer aux études sur le genre en utilisant des théories existantes pour les appliquer à un nouveau champ. Sur la base d’une approche théorique fondée dans le féminisme et les études sur la masculinité, en utilisant aussi l’histoire des cowboys de l’Ouest, cette étude se penche sur la question de l’importance du genre dans la division du travail dans le ranch, celle de l’identité de travail des cowboys et sur la façon dont le genre affecte cette identité. La collecte des données s’est faite par l’observation participante et des entrevues semi-structurées. En utilisant une analyse thématique des données, l’étude conclut que le genre est un principe important dans la division du travail dans le ranch et que l’identité de travail est d’une extrême importance pour les cowboys. En outre, l’étude démontre que le genre jour de différentes façons dans l’identité de travail, l’hétéronormativité et les idéaux du cowboy allant dans le même sens, alors que la féminité s’oppose à cet idéal. Les traditions sont encore importantes pour les cowboys contemporains, mais en même temps, ceux-ci mentionnent la réalité du travail éreintant et sans fin comme contrepoids à l’image romantique de la vie des cowboys. Enfin, il y a des similitudes entre les cowboys de cette étude et les adolescentes suédoises étudies par Ambjörnsonn (2004) dans la façon dont le groupe se crée une identité sur la base du genre.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
La thèse présente une description géométrique d’un germe de famille générique déployant un champ de vecteurs réel analytique avec un foyer faible à l’origine et son complexifié : le feuilletage holomorphe singulier associé. On montre que deux germes de telles familles sont orbitalement analytiquement équivalents si et seulement si les germes de familles de difféomorphismes déployant la complexification de leurs fonctions de retour de Poincaré sont conjuguées par une conjugaison analytique réelle. Le “caractère réel” de la famille correspond à sa Z2-équivariance dans R^4, et cela s’exprime comme l’invariance du plan réel sous le flot du système laquelle, à son tour, entraîne que l’expansion asymptotique de la fonction de Poincaré est réelle quand le paramètre est réel. Le pullback du plan réel après éclatement par la projection monoidal standard intersecte le feuilletage en une bande de Möbius réelle. La technique d’éclatement des singularités permet aussi de donner une réponse à la question de la “réalisation” d’un germe de famille déployant un germe de difféomorphisme avec un point fixe de multiplicateur égal à −1 et de codimension un comme application de semi-monodromie d’une famille générique déployant un foyer faible d’ordre un. Afin d’étudier l’espace des orbites de l’application de Poincaré, nous utilisons le point de vue de Glutsyuk, puisque la dynamique est linéarisable auprès des points singuliers : pour les valeurs réels du paramètre, notre démarche, classique, utilise une méthode géométrique, soit un changement de coordonée (coordonée “déroulante”) dans lequel la dynamique devient beaucoup plus simple. Mais le prix à payer est que la géométrie locale du plan complexe ambiante devient une surface de Riemann, sur laquelle deux notions de translation sont définies. Après avoir pris le quotient par le relèvement de la dynamique nous obtenons l’espace des orbites, ce qui s’avère être l’union de trois tores complexes plus les points singuliers (l’espace résultant est non-Hausdorff). Les translations, le caractère réel de l’application de Poincaré et le fait que cette application est un carré relient les différentes composantes du “module de Glutsyuk”. Cette propriété implique donc le fait qu’une seule composante de l’invariant Glutsyuk est indépendante.
Resumo:
Ce mémoire explore l’exil au cinéma et en littérature, en particulier à travers l’œuvre de Marilú Mallet, cinéaste et écrivaine québécoise d’origine chilienne. L’approche choisie emprunte à la fois au champ littéraire et au champ cinématographique, et fait intervenir à la fois théoriciens, écrivains et cinéastes. À travers plusieurs regards croisés entre cinéastes et écrivains, ce mémoire décrit comment les thèmes du dépaysement, de la mémoire, de l’identité, du territoire et de la langue reviennent sans cesse dans les œuvres des auteurs migrants. Il interroge également la place des auteurs migrants au sein de la littérature et du cinéma nationaux, leur apport à l’imaginaire collectif, et plus largement leur place dans le discours social ambiant. À travers son œuvre, Mallet raconte sa propre expérience d’exilée en même temps qu’elle témoigne de ce qui s’est passé après le coup d’État au Chili en 1973, laissant des traces pour contrer l’histoire officielle.
Resumo:
Notre thèse s’attache à définir certains rapports possibles entre le cinéma et le politique ou, plus précisément, entre le cinéma et le concept pratique de résistance. Il existe une théorie de la résistance, soit sous la forme d’une cartographie du pouvoir moléculaire (M. Foucault), soit sous la forme d’une analytique de la résistance (F. Proust). Il existe également une théorie de la résistance cinématographique, soit comme sociologie ou histoire de l’action politique par le cinéma (cinéma de la Résistance, cinéma militant), soit comme une sémiotique des formes et des genres marginaux (cinéma expérimental, cinéma des avant-gardes). Suivant une direction tracée par Serge Daney et Gilles Deleuze, nous croyons qu’il faut poser autrement le problème : si « le politique est affaire de perception », alors la résistance est d’abord une invention de visibilité et d’audibilité. En ce sens, la résistance cinématographique est une exploration de ce que peut le cinéma, tant d’un point de vue esthétique, éthique, que politique. D’où notre hypothèse, qui est double : d’une part, cette invention de visibilité, cette création de potentiel n’est peut-être possible qu’en passant par un ré-enchaînement anachronique d’une déformation plastique, narrative et audiovisuelle à une autre, c’est-à-dire d’une survivance à une autre. D’autre part, nous croyons qu’une forme esthétique est en soi matière politique et manière de politique, et qu’elle implique également une éthique venant brasser notre propre subjectivité (de cinéaste, de spectateur, de citoyen, etc.). Or, pour saisir cette invention de visibilité inhérente au cinéma, il faut en passer par une généalogie de certaines alliances théoriques et pratiques parmi les plus importantes. Le cas de trois machines autopoïétiques nous intéressera tout particulièrement, trois constellations d’œuvres et de pensées qui débordent le nom propre des « Auteurs » convoqués : Eisenstein et les résistances méthodologiques ; Syberberg et les résistances plastiques ou audiovisuelles (à travers la seule figure du hors-champ) ; Welles et les résistances esth/éthico-politiques. Ainsi, une telle chaîne généalogique nous permettra de mieux mesurer l’efficace de ces résistances, mais sans désir de systématisation ni constitution d’une Théorie de la résistance cinématographique.
Resumo:
À l’ère de la mondialisation institutionnelle des sociétés modernes, alors que la confluence d’une myriade d’influences à la fois micro et macro-contextuelles complexifient le panorama sociopolitique international, l’intégration de l’idéal participatif par les processus de démocratisation de la santé publique acquiert l’apparence d’une stratégie organisationnelle promouvant la cohésion des multiples initiatives qui se tissent simultanément aux échelles locale et globale. L’actualisation constante des savoirs contemporains par les divers secteurs sociétaux ainsi que la perception sociale de différents risques conduisent à la prise de conscience des limites de la compétence technique des systèmes experts associés au domaine de la santé et des services sociaux. La santé publique, une des responsables légitimes de la gestion des risques modernes à l’échelle internationale, fait la promotion de la création d’espaces participatifs permettant l’interaction mutuelle d’acteurs intersectoriels et de savoirs multiples constamment modifiables. Il s’agit là d’une stratégie de relocalisation institutionnelle de l’action collective afin de rétablir la confiance envers la fiabilité des représentants de la santé publique internationale, qui ne répondent que partiellement aux besoins actuels de la sécurité populationnelle. Dans ce contexte, les conseils locaux de santé (CLS), mis en place à l’échelle internationale dans le cadre des politiques régionales de décentralisation des soins de santé primaires (SSP), représentent ainsi des espaces participatifs intéressants qui renferment dans leur fonctionnement tout un univers de forces de tension paradoxales. Ils nous permettent d’examiner la relation de caractère réciproque existant entre, d’une part, une approche plus empirique par l’analyse en profondeur des pratiques participatives (PP) plus spécifiques et, d’autre part, une compréhension conceptuelle de la mondialisation institutionnelle qui définit les tendances expansionnistes très générales des sociétés contemporaines. À l’aide du modèle de la transition organisationnelle (MTO), nous considérons que les PP intégrées à la gouverne des CLS sont potentiellement porteuses de changement organisationnel, dans le sens où elles sont la condition et la conséquence de nombreuses traductions stratégiques et systémiques essentiellement transformatrices. Or, pour qu’une telle transformation puisse s’accomplir, il est nécessaire de développer les compétences participatives pertinentes, ce qui confère au phénomène participatif la connotation d’apprentissage organisationnel de nouvelles formes d’action et d’intervention collectives. Notre modèle conceptuel semble fournir un ensemble de considérations épistémosociales fort intéressantes et très prometteuses permettant d’examiner en profondeur les dimensions nécessaires d’un renouvellement organisationnel de la participation dans le champ complexe de la santé publique internationale. Il permet de concevoir les interventions complexes comme des réseaux épistémiques de pratiques participatives (RÉPP) rassemblant des acteurs très diversifiés qui s’organisent autour d’un processus de conceptualisation transculturelle de connaissances ainsi que d’opérationnalisation intersectorielle des actions, et ce, par un ensemble de mécanismes d’instrumentalisation organisationnelle de l’apprentissage. De cette façon, le MTO ainsi que la notion de RÉPP permettent de mieux comprendre la création de passages incessants entre l’intégration locale des PP dans la gouverne des interventions complexes de la santé et des services sociaux – tels que les CLS –, et les processus plus larges de réorganisation démocratique de la santé publique dans le contexte global de la mondialisation institutionnelle. Cela pourrait certainement nous aider à construire collectivement l’expression réflexive et manifeste des valeurs démocratiques proposées dans la Déclaration d’Alma-Ata, publiée en 1978, lors de la première Conférence internationale sur les SSP.
Resumo:
Thèse réalisée en cotutelle avec l'Université de Provence au sein du département d’études cinématographiques, U.F.R. Lettres et Arts, L.E.S.A. École doctorale Lettres, Langues et Arts. Soutenue publiquement à l'Université de Provence le 16 juillet 2010.
Resumo:
Les colonnes de plasma entretenues par un champ électrique (continu ou alternatif) à haute pression (p > 10 Torr) sont affectées par les phénomènes de contraction (réduction de la section radiale de la décharge) et de filamentation (fragmentation de la section de plasma en plusieurs filaments). La compréhension de ces phénomènes ainsi que le développement d’une méthode pouvant les supprimer demeurent une étape essentielle pour l’optimisation de certains procédés plasma. Dans cette optique, un premier objectif de notre travail était de déterminer les mécanismes à l’origine de la contraction et de la filamentation dans les décharges créées dans des gaz rares. Ainsi, nous avons montré que dans les plasmas micro-ondes contractés la cinétique de la décharge est contrôlée par les ions moléculaires et que la contraction est liée à l’influence du gradient de la température du gaz sur la concentration de ces ions. De plus, nous avons mis en évidence que la filamentation apparaît lorsque l’inhomogénéité radiale du champ électrique devient importante. Dans un second temps, nous avons développé une méthode de décontraction et de défilamentation de la décharge, qui consiste à ajouter à une décharge initiale de gaz rare des traces d’un autre gaz rare de plus faible potentiel d’ionisation. Dans le cas des plasmas décontractés, nous avons démontré que la cinétique de la décharge n’est plus contrôlée par les ions moléculaires, ce qui confirme bien l’importance de ces ions dans la description de la contraction. Pour terminer, nous avons étendu à la pression atmosphérique la technique d’absorption optique de mesure de densité des états métastables et résonnants à l’aide d’une lampe spectrale, ce qui n’avait été réalisé jusqu’ici que pour des pressions inférieures à 10 Torr. Ces états jouent un rôle essentiel dans l’ionisation des décharges contractées alors que dans les décharges décontractées leur désexcitation par les atomes du gaz adjuvant est l’étape fondamentale du processus de changement de cinétique menant à la décontraction.
Resumo:
Cet article évalue, du point de vue moral, les justifications possibles pour le recours à la taxation en vue de promouvoir des comportements « sains ». L’objectif est de démontrer qu’un tel instrument recevrait une meilleure justification, c’est-à-dire plus en accord avec des principes égalitariens respectueux de la liberté individuelle, s’ils s’inscrivaient dans une logique de mutualisation. Pour ce faire, les arguments du bien-être individuel et de l’efficience sociale sont discutés afin d’en pointer les fécondités et limites. Au travers de leurs limites, ces arguments introduisent naturellement à une troisième manière d’appréhender le problème, sous l’angle de la mutualisation. Ce principe représente moins une remise en cause radicale des arguments précédents qu’une reformulation du recours à l’efficience sociale et une limitation du champ d’application des appels au bien-être individuel. Il repose sur deux idées. La première est que la référence à une notion de responsabilité, même affadie, est nécessaire. De plus, celle-ci doit être conçue comme partagée entre producteurs et consommateurs ainsi que limitée au domaine financier. La seconde est que la mutualisation ne peut être déconnectée d’intuitions égalitariennes formulées de manière générale.