921 resultados para Imagerie du tenseur de diffusion
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0.002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques.
Resumo:
À partir d’observations personnelles sur l’importance de la technique et des technologies dans la production musicale, le projet de ce mémoire fut élaboré autour de la sociologie de la musique de Weber. En premier lieu, un questionnement du rapport entre musique, technologie et société permet d’établir de nombreuses voies pour la recherche concernant les médiations techniques de la musique. Ces médiations sont maintenant caractérisées par les changements issus de l’implantation de l’informatique dans de nombreuses sociétés et la modification des rapports de pouvoir et des rapports sociaux par les possibilités nouvelles offertes par le médium numérique. Si Internet semble avoir bouleversé l’industrie de la musique, de nouvelles possibilités de dépasser les limitations des technologies traditionnelles de la musique sont toutefois aussi apparues au sein de ce « système sociotechnique ». Ces modifications prennent la forme de philosophies, mais aussi de pratiques sociales qui se répandent, avant tout, auprès de la jeune génération, ce qu’il est possible d’observer par les changements dans les pratiques musicales. À partir des outils conceptuels de Weber, deux idéaltypes seront créés qui représentent autant de modes de diffusion de musique sur Internet. L’accent est mis sur la différence entre les pratiques sociales et musicales de ces modes de diffusions : l’un est basé sur des pratiques traditionnelles et greffé sur la nouvelle plateforme Internet, l’autre emprunte les caractéristiques de la diffusion de l’information en réseau caractéristique de la culture Internet et se caractérise par des pratiques dites réflexives. Ces idéaltypes, ainsi que les cas qui les constituent et qu’ils mettent en lumière, sont mis à profit pour discuter des motifs de l’action chez différents agents au cœur des pratiques de diffusion et, finalement, des modalités variées que prend la rationalisation de la diffusion de la musique à partir du médium numérique.
Resumo:
Objectifs Aucun agent n’a été approuvé pour prévenir l’ototoxicité secondaire au cisplatin. Nos objectifs consistaient à évaluer la protection auditive offerte par le lactate et le N-acétylcystéine (NAC) intra-tympaniques après injection de cisplatin, ainsi que l’absorption systémique du NAC intra-tympanique. Méthodes Seize cochons d’inde formaient 2 groupes ayant reçu une solution de lactate et de NAC à 20% dans l’oreille testée. L’oreille contro-latérale a reçu une solution saline contrôle. Après 30 minutes, une injection intrapéritonéale de 3 mg/kg de cisplatin a été effectuée et répétée une fois par semaine jusqu’à une dose finale de 24 mg/kg. Les potentiels évoqués auditifs du tronc cérébral (PEATC) ont été mesurés avant les injections, après 9 mg/kg et 24 mg/kg de cisplatin. Les cochlées ont été analysées au microscope électronique à balayage. La diffusion systémique du NAC a été évaluée par chromatographie en phase liquide. Résultats Pour les oreilles contrôles, les seuils auditifs des PEATC ont augmenté uniformément sur toutes les fréquences (28,4 dB en moyenne). Le groupe lactate montrait une augmentation moins importante (17,0 dB). Les basses fréquences étaient nettement moins affectées. Le groupe NAC a subi une augmentation des seuils de 89 dB. La microscopie électronique a démontré une préservation partielle des cellules ciliées externes des cochlées traitées au lactate et une destruction complète de celles traitées au NAC. La chromatographie n’a démontré aucune diffusion de NAC. Conclusions Le lactate offre une protection partielle significative contre l’ototoxicité induite par le cisplatin. Les injections de NAC n’offrent pas de protection lorsque administrées en concentrations élevée. Le NAC intra-tympanique ne se diffuse pas systémiquement.
Resumo:
Le vieillissement normal est associé à une réorganisation cérébrale qui peut être influencée par plusieurs facteurs. Des théories comme la réserve cognitive de Stern (2002) tentent d’expliquer les effets de ces différents facteurs. Certains, le niveau de scolarité par exemple, sont encore mal connus. Pourtant, le niveau de scolarité est connu pour avoir un impact sur les performances cognitives tout au long de la vie. Le but de ce mémoire est d’étudier les effets du niveau de scolarité sur l’oxygénation cérébrale de personnes âgées en santé lors d’une tâche d’évocation lexicale orthographique et sémantique. Chaque tâche est divisée selon un critère « plus productive » et « moins productive ». Les âgés faiblement scolarisés produisent moins de mots que les âgés fortement scolarisés. De plus, la différence de mots produits entre le critère plus productif et moins productif est plus grande pour la tâche sémantique que pour la tâche orthographique. Du point de vue hémodynamique, les deux groupes ont des activations semblables, contredisant le phénomène HAROLD. De plus, les participants peu scolarisés tendent à activer de façon plus importante l’hémisphère gauche, peu importe la tâche ou la condition. Par contre, les activations varient selon la tâche et la condition dans le cas du groupe fortement scolarisé.
Vieillissement et réorganisation neurofonctionnelle pour le traitement du sens métaphorique des mots
Resumo:
Compte tenu de l ’importante augmentation de l ’espérance de vie de la population générale observée dans les dernières décennies, les études portant sur les modifications des fonctions cognitives lors du vieillissement normal et pathologique se révèlent d'un grand intérêt. Les résultats rapportés dans cette thèse contribuent à une meilleure compréhension de la nature des modifications avec l ’âge du traitement du sens métaphorique des mots et du phénomène de réorganisation fonctionnelle sous-tendant ces processus. Après une revue de littérature (chapitre 1), un premier article définissant la problématique générale du traitement du langage lors du vieillissement normal inaugure la série de travaux présentés dans cette thèse. Cet article, présenté dans le chapitre 2, confirme l ’importance du développement d ’études spécifiques permettant de faire le lien entre les différentes hypothèses portant sur les changements cognitifs propres au vieillissement normal et celles portant sur les changements propres au substrat neurobiologique du langage. Le chapitre 3 présente une étude comportementale ayant pour objectif d ’évaluer la disponibilité des ressources attentionnelles pour le traitement phonologique et sémantique des mots ainsi que son évolution possible avec l ’âge. Les conclusions tirées de cette étude vont dans le sens d ’une restriction des ressources attentionnelles particulièrement pour le traitement du sens métaphorique des mots lors du vieillissement normal. Le chapitre 4 présente une étude en neuroimagerie fonctionnelle. Cette étude a été réalisée afin de comparer les profils d'activation cérébrale des participants jeunes et âgés lors du traitement du sens métaphorique des mots. Les résultats obtenus soulignent qu ’autant pour les participants jeunes que pour les participants âgés, le traitement du sens métaphorique des mots pourrait imposer au cerveau le partage des ressources attentionnelles. Néanmoins, ils montrent une réorganisation fonctionnelle chez les participants âgés. L ’ensemble des travaux présentés appuie l ’hypothèse d ’une attribution différentielle des ressources attentionnelles ainsi que celle d ’une réorganisation fonctionnelle chez les participants âgés pour le traitement du sens métaphorique des mots. Les résultats viennent enrichir la compréhension des modèles neurocognitifs du vieillissement en ce qui concerne l ’évolution des bases neurobiologiques du langage.
Resumo:
Dans le cadre de ce mémoire, nous nous penchons sur les relations du travail (RT) dans les entreprises multinationales (EMs) ayant des opérations au Canada. Notre question de recherche est la suivante: « Le pays d’origine d’une entreprise multinationale a-t-il un impact sur les pratiques de relations du travail dans ses opérations canadiennes? » Deux thèses principales ont été élaborées afin d’expliquer les choix des EMs dans l’adoption et l’implantation de pratiques. La première thèse, celle de la diversité, tient pour acquis que plusieurs déterminants endogènes et exogènes à l’EM influencent ses pratiques (Mcgraw et Harley, 2003). Tant les caractéristiques du pays hôte que celles du pays d’origine influenceraient les choix de pratiques des EMs contribuant ainsi à leur diversité (Almond et al., 2005). Par exemple, certains chercheurs avancent que les EMs sont littéralement imprégnées des caractéristiques provenant du pays qui les a vues naître, qu’elles feraient littéralement partie de leur ADN affectant ainsi les pratiques qu’elles mettent en place dans leurs filiales à l’étranger (Berger, 2006). Par ailleurs, la thèse de la convergence soutient que les EMs auraient tendance à utiliser les mêmes pratiques en cette ère de mondialisation et d’hégémonie économique américaine (Mcgraw et Harley, 2003). Les tenants de cette thèse croient plutôt à une convergence des pratiques à travers les EMs en raison notamment de la vaste diffusion du modèle anglo-saxon de gestion, de l’approche des best pratices et du one best way (Mcgraw et Harley, 2003; Royle, 2006). Convergence ou divergence des pratiques? Le débat demeure entier dans la littérature. Outre sa contribution à ce débat, notre recherche permet d’en apprendre davantage sur le comportement des EMs étrangères au Canada, mais aussi d’examiner les spécificités des EMs canadiennes. Le modèle conceptuel développé par ce mémoire se base sur la thèse de la diversité en examinant plus particulièrement l’effet du pays d’origine. Selon la littérature, plusieurs variables influencent les pratiques des EMs, soit le pays d’origine (Almond et al., 2005; Kvinge et Ulrichsen, 2008; Marginson, 2008; Edwards et Ferner, 2002; Collings, 2003; Ferner, 1997, Moore et Rees, 2008; etc.) et les caractéristiques propres à l’EM (Bartlett et Ghosal, 1998; Kidger, 2002; Perlmutter, 1969; Edwards, 2003). Aux fins de notre recherche, notre variable dépendante, les pratiques de RT, comporte cinq dimensions, soit la reconnaissance syndicale des nouveaux établissements, la politique d’implication du syndicat, la perception à l’égard des représentants syndicaux, la structure de la négociation collective et l’autonomie de la filiale dans l’élaboration de politiques en matière de RT (Bélanger et al., 2006). L’hypothèse principale de notre recherche est : le pays d’origine d’une EM a un impact sur le choix des pratiques de RT dans ses opérations canadiennes. Cinq sous-hypothèses, touchant cinq dimensions du concept de RT, ont été testées : 1) les EMs américaines reconnaissent moins souvent le syndicat dans leurs nouveaux établissements que les EMs d’autres pays; 2) les EMs américaines ont une moins bonne perception patronale du syndicat que celles provenant d’autres pays; 3) les négociations collectives sont plus décentralisées dans les EMs américaines que dans celles d’autres pays; 4) les EMs américaines impliquent moins les syndicats dans la prise de décision que celles provenant d’autres pays; 5) l’autonomie dans l’élaboration de politiques concernant la représentation syndicale est plus faible dans les EMs américaines que dans les EMs d’autres pays. Sur le plan méthodologique, cette étude utilise des données secondaires provenant de l’Enquête sur la gestion des ressources humaines, les politiques publiques et la chaîne de valeur mondiale menée par Bélanger, Harvey, Jalette, Lévesque et Murray (2006). Nous étudions un sous-échantillon de la base de données, soit une centaine d’EMs dont les employés sont syndiqués. Les résultats indiquent que les opérations canadiennes des EMs canadiennes se différencient de celles des EMs américaines par une meilleure perception patronale des syndicats et une plus grande implication syndicale. De plus, les EMs européennes reconnaissent plus le syndicat dans leurs nouveaux établissements, perçoivent davantage de la collaboration de la part du syndicat et octroient une plus grande autonomie en matière de RT à leurs opérations canadiennes que les EMs américaines. Enfin, les opérations canadiennes des EMs du reste du monde se distinguent de celles des EMs américaines par une meilleure perception patronale de collaboration de la part du syndicat.
Resumo:
Avec l’émergence des nouveaux médias, une nouvelle façon de raconter les histoires s’impose. Les structures connues de l’esthétisme classique semblent désuètes par rapport aux dispositions des nouvelles plateformes de diffusion. Mieux encore, ces plateformes propulsent le récit, lui permettent de sortir de la rigidité de la ligne narrative : elles intègrent la technique au logos. L’intermédialité devient omniprésente; la diversité des types médiatiques employés dans une œuvre sont rendus visibles et sont articulés par la mise en récit. Méchoulan dira que dans l’« être-entre », dans l’espace reliant chacune des unités sémantiques, que l’événement de la pensée advient; pour Rodowick c’est le « figural ». Une figure particulière s’impose : le labyrinthe. Multipliant les possibilités narratives spécifiques aux nouveaux médias, le labyrinthe fait converger les composantes intermédiales. Bleeding Through : Layers of Los Angeles 1920-1986, une œuvre dirigée par Norman Klein, pose le labyrinthe comme élément structurel en y tissant un réseau où s’inscrit une pratique intermédiale. On y adresse le temps comme une opération fragmentaire, qui se sectionne, se réorganise en rompant avec la linéarité classique. Il nous faudra alors voir comment le labyrinthe réfléchit dans l’étude du temps certains éléments de la mythologie grecque. Les réflexions de Gervais sur le labyrinthe permettront d’étayer pareille hypothèse. Nous analyserons Bleeding Through à la lumière de ces théories pour ainsi dégager l’essence de cette figure qui a infiltrée la narration contemporaine. En somme, le labyrinthe se présente dans l’écologie médiatique actuelle comme une figure inhérente à la mise en récit.
Resumo:
De nombreuses études ont démontré que les adolescents qui subissent une chirurgie correctrice de scoliose éprouvent des douleurs postopératoires intenses et cela pendant plusieurs jours après leur chirurgie. L’originalité de cette étude de type quasi-expérimental, consistait à réaliser un DVD sur une technique d’imagerie guidée et de relaxation combinée à une intervention éducative (gestion de la douleur) sur la douleur, l’anxiété, le coping et le retour aux activités d’adolescents ayant subi une chirurgie correctrice de scoliose. Prenant appui sur la théorie du portillon (Melzack & Casey, 1968) et sur la théorie transactionnelle du stress et coping (Lazarus & Folkman, 1984), quatre hypothèses ont été retenues en vue de vérifier l’effet de cette intervention. Trente et un adolescents, âgés entre 13 et 19 ans ont été répartis en deux groupes de façon aléatoire. Les participantes du groupe expérimental devaient visionner un DVD sur une technique d’imagerie guidée et de relaxation combinée à de l’information sur la gestion de la douleur en période préopératoire, au moment du congé de l’hôpital et ce, au moins trois fois par semaine sur une période d’un mois post congé. De plus, ce groupe continuait à recevoir les soins usuels. Les participants du groupe contrôle ne recevaient que les soins usuels. Les instruments de mesure utilisés furent le questionnaire concis de la douleur (QCD) (Larue F, Colleau, Brasseur, & Cleeland, 1995), l’inventaire d’anxiété situationnelle et de trait d’anxiété (IASTA-Y) (Gauthier & Bouchard, 1993) et l’inventaire du coping face à la douleur pédiatrique (Spicher, 2003). Quatre temps de mesure ont été planifiés, soit la journée avant la chirurgie, au congé de l’hôpital, au 14ième jour post congé et lors de la visite à la clinique d’orthopédie à un mois post congé. Les résultats montraient que les deux groupes étaient équivalents en ce qui concernait les caractéristiques sociodémographiques et les variables dépendantes. Les participants du groupe expérimental présentaient une douleur générale ressentie dans le dernier 24 heures plus basse au 14ième jour (p = 0,012) et un mois après leur congé de l’hôpital (p = 0,049). Certaines activités quotidiennes ont démontré une différence significative au 14ième jour soit : les activités scolaires ou de travail (p = 0,046), et les activités de soutien vital (manger, dormir) (p = 0,024), Par contre, nous n’avons pas observé de différence significative au niveau de l’anxiété situationnelle et des stratégies adaptatives de coping entre les deux groupes. L’auteur conclut que le niveau de douleur postopératoire des adolescents qui ont subi une chirurgie correctrice de scoliose peut être réduit par un visionnement d’un DVD sur une technique d’imagerie guidée et de relaxation combinée à une intervention éducative (information sur la douleur). De plus, ceci semble avoir un effet positif sur le retour plus rapide de certaines activités quotidiennes.
Resumo:
In the current contemporary Chinese context, still caught up with a governmental censorship of the media productions as well as information circulation, creators must find diverse ways to express themselves freely. Several styles of cinemas cohabit in this country hustled by political ideologies. Two main categories are divided, opposed and intermingled, the “mainstream” cinema and the “independent” cinema. It is via the medium of cinema and more particularly that of the present generation of Chinese directors that will be highlighted the emergence of new creative subjectivities. These subjectivities are in a constant dance with the State in the reaching of professional achievement while maintaining the status of artistic independence. The author will look into the evolution of the notion of Chinese identity from the 1990s until today. Rising from an opposition between tradition and modernism, the formation of new subjectivities is founded on a constant negotiation with the imposing forces of globalization but also in relation with the Chinese State. One currently speaks about an easing of communist rigidity and even the emergence of neoliberal tendencies. This would lead to the creation of a Chinese identity, brought up to date in tune with the assertion of individual desires at the expense of the community. The collective experiment is set aside to make room for the subjectivity of creative individuals, who create while positioning themselves as a unit in interrelationship with society.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
Comment le motif de la marque insensible du diable a-t-il pu se frayer un chemin au sein du discours théologique, juridique et médical de la fin de la Renaissance jusqu'à s'imposer comme une pièce essentielle du crime de sorcellerie? Selon quels mécanismes et à partir de quels systèmes de croyance cette marque corporelle en est-elle venue à connaître une si large diffusion et une aussi grande acceptation tant chez les gens du livres que parmi les couches populaires? En cette époque marquée par la grande chasse aux sorcières et le développement de l'investigation scientifique, l'intérêt que les savants portent à cette étrange sémiologie constitue une porte d'accès privilégiée pour aborder de front la dynamique du déplacement des frontières que la démonologie met en oeuvre au sein des différents champs du savoir. Cette thèse a pour objectif d'étudier le réseau des mutations épistémologiques qui conditionne l'émergence de la marque du diable dans le savoir démonologique français à la charnière des XVIe et XVIIe siècles. Nous examinerons par quels cheminements l'altérité diabolique s'est peu à peu intériorisée dans le corps et l'âme des individus sous l'influence grandissante des vertus de l'empirisme, de la méthode expérimentale et de l'observation. En analysant la construction rhétorique de la théorie des marques du diable et en la reliant aux changements qui s'opèrent sur la plateforme intellectuelle de l'Ancien Régime, nous entendons éclairer la nouvelle distribution qui s'effectue entre les faits naturels et surnaturels ainsi que les modalités d'écriture pour en rendre compte.
Resumo:
Le présent mémoire a comme sujet l'analyse et la caractérisation de la pensée de Paul sur la parousie (la deuxième venue du Seigneur) et l'étude de l'interprétation de cette pensée dans la théologie contemporaine,telle que représentée par Rudolf Bultmann, tenant de la démythologisation, et les théologiens de la libération Ignacio Ellacuria et Jon Sobrino. Les éléments clés de la parousie sont décrits principalement en Matthieu 25,31-46, 1 Cor 15,20-28, 1 Thess 4,13-18, 2 Thess 2,1-12. D'après Paul, « Le Seigneur, au signal donné, à la voix de l'archange et au son de la trompette de Dieu, descendra du ciel ». La principale question du mémoire porte sur cette vision paulinienne: Est-ce que la deuxième venue du Seigneur d'après la description paulinienne est encore crédible pour l'homme contemporain ou est-ce qu'il s'agit d'un élément mythologique non essentiel à la foi chrétienne? Bultmann considère que la parousie est un mythe : à ce jour, la parousie ne s'est pas produite, et elle ne se produira jamais. Le kérygme est le seul élément que Bultmann considère comme valide. « The kerygma is the proclamation of the decisive act of God in Christ ». Par contraste, Ellacuria est d'avis que l'élément eschatologique est essentiel pour comprendre l'histoire, car cette dernière est orientèe vers la fin. De manière analogue, Sobrino présente le Royaume de Dieu comme étant un élément clé de l'eschatologie. La théologie de la libération présente également la parousie comme un élément à venir qui représente l'implantation intégrale du Royaume de Dieu et qui devrait se comprendre comme une perspective eschatologique au-delà de l'imagerie de la parousie.
Resumo:
L’aphasie est un trouble acquis du langage entraînant des problèmes de communication pouvant toucher la compréhension et/ou l’expression. Lorsque l’aphasie fait suite à un accident vasculaire cérébral, une régression des déficits communicatifs s'observe initialement, mais elle peut demeurer sévère pour certains et est considérée chronique après un an. Par ailleurs, l’aphasie peut aussi être observée dans l’aphasie progressive primaire, une maladie dégénérative affectant uniquement le langage dans les premières années. Un nombre grandissant d’études s’intéressent à l’impact de la thérapie dans l’aphasie chronique et ont démontré des améliorations langagières après plusieurs années. L’hémisphère gauche semble avoir un rôle crucial et est associé à de meilleures améliorations langagières, mais la compréhension des mécanismes de plasticité cérébrale est encore embryonnaire. Or, l’efficacité de la thérapie dans l’aphasie progressive primaire est peu étudiée. À l’aide de la résonance magnétique fonctionnelle, le but des présentes études consiste à examiner les mécanismes de plasticité cérébrale induits par la thérapie Semantic Feature Analysis auprès de dix personnes souffrant d’aphasie chronique et d’une personne souffrant d’aphasie progressive primaire. Les résultats suggèrent que le cerveau peut se réorganiser plusieurs années après une lésion cérébrale ainsi que dans une maladie dégénérative. Au niveau individuel, une meilleure amélioration langagière est associée au recrutement de l’hémisphère gauche ainsi qu’une concentration des activations. Les analyses de groupe mettent en évidence le recrutement du lobule pariétal inférieur gauche, alors que l’activation du gyrus précentral gauche prédit l’amélioration suite à la thérapie. D’autre part, les analyses de connectivité fonctionnelle ont permis d’identifier pour la première fois le réseau par défaut dans l’aphasie. Suite à la thérapie, l’intégration de ce réseau bien connu est comparable à celle des contrôles et les analyses de corrélation suggèrent que l’intégration du réseau par défaut a une valeur prédictive d’amélioration. Donc, les résultats de ces études appuient l’idée que l’hémisphère gauche a un rôle prépondérant dans la récupération de l’aphasie et fournissent des données probantes sur la neuroplasticité induite par une thérapie spécifique du langage dans l’aphasie. De plus, l’identification d’aires clés et de réseaux guideront de futures recherches afin d’éventuellement maximiser la récupération de l’aphasie et permettre de mieux prédire le pronostic.