714 resultados para Optique adaptative


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La musique est un comportement humain incontestablement universel, elle demeure néanmoins peu abordée par l’anthropologie. Si les connaissances empiriques accumulées à ce jour ont permis de bien la caractériser à des niveaux proximaux d’analyse, la question de son origine évolutionniste est, en contrepartie, souvent délaissée. Or, toute tentative sérieuse de comprendre ce phénomène requiert une investigation de sa fonction adaptative et de sa phylogénèse. Le projet entrepris ici consiste en une tentative de définition du concept de musique en terme d’universaux, d’une comparaison interspécifique du phénomène et d’un résumé de l’histoire phylogénétique des comportements musicaux, ainsi que d’une analyse de deux modèles portant sur les origines de la musique (Miller, 2000; Mithen, 2006). De ces modèles sont extraites des prévisions qui sont confrontées à des données empiriques provenant de disciplines diverses afin d’évaluer leur valeur scientifique. L’analyse des données disponibles permet de produire un inventaire des universaux musicaux aux plans cognitif, structurel, émotionnel, fonctionnel et symbolique et d’identifier ainsi certaines des bases biologiques du phénomène. Plusieurs mécanismes évolutionnistes, dont la sélection naturelle, la sélection sexuelle, la sélection de groupe et la sélection parentale sont employés par les divers auteurs afin d’expliquer l’apparition du phénomène musical. Il appert que la musique a joué un rôle important dans la relation parent-enfant au cours de l’évolution humaine, de même que dans la cohésion sociale, la coordination des activités et la formation de l’identité de groupe. En ce qui a trait aux deux modèles analysés ici, chacun ne traite que d’une partie des invariants musicaux et leur comparaison permet d’établir qu’ils sont mutuellement exclusifs. En guise de conclusion, nous tentons de formuler un scénario évolutif qui concilie les différentes hypothèses abordées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Streptocoque de groupe B (GBS) est un important agent d’infection invasive pouvant mener à la mort et demeure la cause principale de septicémie néonatale à ce jour. Neuf sérotypes ont été officiellement décrits basés sur la composition de la capsule polysaccharidique (CPS). Parmi ces sérotypes, le type III est considéré le plus virulent et fréquemment associé aux maladies invasives graves, telle que la méningite. Malgré que plusieurs recherches aient été effectuées au niveau des interactions entre GBS type III et les cellules du système immunitaire innées, aucune information n’est disponible sur la régulation de la réponse immunitaire adaptative dirigée contre ce dernier. Notamment, le rôle de cellules T CD4+ dans l’immuno-pathogenèse de l’infection causée par GBS n’a jamais été étudié. Dans cet étude, trois différents modèles murins d’infection ont été développé pour évaluer l’activation et la modulation des cellules T CD4+ répondantes au GBS de type III : ex vivo, in vivo, et in vitro. Les résultats d’infections ex vivo démontrent que les splénocytes totaux répondent à l’infection en produisant des cytokines de type-1 pro-inflammatoires. Une forte production d’IL-10 accompagne cette cascade inflammatoire, probablement dans l’effort de l’hôte de maintenir l’homéostasie. Les résultats démontrent aussi que les cellules T sont activement recrutées par les cellules répondantes du système inné en produisant des facteurs chimiotactiques, tels que CXCL9, CXCL10, et CCL3. Plus spécifiquement, les résultats obtenus à partir des cellules isolées T CD4+ provenant des infections ex vivo ou in vivo démontrent que ces cellules participent à la production d’IFN-γ et de TNF-α ainsi que d’IL-2, suggérant un profil d’activation Th1. Les cellules isolées T CD4+ n’étaient pas des contributeurs majeurs d’IL-10. Ceci indique que cette cytokine immuno-régulatrice est principalement produite par les cellules de l’immunité innée de la rate de souris infectées. Le profil Th1 des cellules T CD4+ a été confirmé en utilisant un modèle in vitro. Nos résultats démontrent aussi que la CPS de GBS a une role immuno-modulateur dans le développement de la réponse Th1. En résumé, cette étude adresse pour la première fois, la contribution des cellules T CD4+ dans la production d’IFN-γ lors d’une infection à GBS et donc, dans le développement d’une réponse de type Th1. Ces résultats renforcent d’avantage le rôle central de cette cytokine pour un control efficace des infections causées par ce pathogène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transmission cholinergique, et notamment muscarinique, joue un rôle déterminant dans le système nerveux central au niveau de la modulation de la plasticité neuronale. La libération d'ACh dans le cortex visuel est concomitante à la présentation de stimuli visuels. Par son action sur la transmission neuronale corticale, l'ACh module à long terme les réponses à de nouveaux stimuli sensoriels. Dans la présente étude, l'implication du système cholinergique au niveau du développement cortical et de la plasticité inductible chez l'adulte a été étudiée par les techniques d'imagerie optique des signaux intrinsèques et d'immunohistochimie chez le rongeur. Ces deux techniques de cartographie de l'activité corticale nous ont permis d'évaluer, d'une part, l'impact modulatoire de l'acétylcholine (ACh) et de ses récepteurs muscariniques (mAChRs, M1 à M5) sur l'organisation fonctionnelle du cortex visuel chez des souris déficitaires pour les mAChRs et, d'autre part, l'impact de la libération d'ACh lors d'un entraînement visuel, sur le nombre, la nature neurochimique et la localisation au niveau des couches corticales des neurones corticaux activés. L'implication du système cholinergique sur la cartographie du cortex visuel primaire a été étudiée sur les souris génétiquement modifiées délétères (knock out : KO) pour différentes combinaisons de sous-types de mAChRs. L'imagerie des signaux intrinsèques, basée sur les changements de réflectance corticale de la lumière survenant lors de la consommation d'oxygène par les neurones activés, a permis de déterminer, lors de stimulations visuelles, les différentes composantes des propriétés des neurones du cortex visuel. La taille des champs récepteurs des neurones est diminuée lors de l'absence du récepteur M1 ou de la combinaison M1/M3. Le champ visuel apparent est augmenté chez les souris M2/M4-KO mais diminué chez les M1-KO. La finesse des connectivités neuronales (évaluée par la mesure du scatter du signal) est réduite lors de l'absence des récepteurs M2/M4. Finalement, chez les animaux M1/M3-KO, une diminution de l'acuité visuelle est observée. L'effet à long-terme d'un entraînement visuel couplé à une stimulation des neurones cholinergiques sur la distribution et la nature des neurones immunoréactifs au c-Fos, c'est-à-dire les neurones activés, a été évalué. Puisque cette stimulation combinée est en mesure de produire des modifications comportementales, notamment au niveau de l'acuité visuelle, il devenait intéressant de s'attarder aux modifications neuroanatomiques et de déterminer quels éléments de l'équilibre excitateur/inhibiteur sont compromis chez ces animaux. Les résultats obtenus démontrent que les animaux ayant reçu une combinaison de l'entraînement cholinergique et visuel présentent une augmentation du marquage c-Fos comparativement aux animaux n'ayant reçu que la stimulation cholinergique. D'autre part, chez ces animaux, il est possible d'observer des modifications de l'équilibre excitateur/inhibiteur qui correspond au potentiel plastique de la région. En conclusion, ces études démontrent un rôle important du système cholinergique dans le développement, la maturation et la plasticité du système visuel cérébral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette recherche est de comparer deux modes d’intervention internationale (étatique et non-étatique) qui ont une optique de maintien ou de rétablissement de l’ordre et de la paix, de développement économique et social, pour des raisons humanitaires. De fait, la frontière est aujourd’hui floue entre les interventions étatiques et non-étatiques. Pour éviter une confusion conceptuelle, l’objet de l’étude est la comparaison de trois moments historiques d’intervention américaine en Haïti. L’étude se déroule en deux temps. D’abord elle servira à comprendre la logique d’action de l’État américain lors des interventions passées et présente afin de relever les objectifs implicites et explicites de ces interventions. Dans un deuxième temps elle se concentrera sur la biopolitique dans l’intervention humanitaire et l’application de la théorie de régulation du chaos. Celle-ci impliquant des conditions variées, elle propose un modèle théorique qui vise à comprendre l’intervention contemporaine en tant que nouveau cadre épistémique d’action politique, celle du ‘chaos régulé’ (‘Regulated Chaos’: McFalls, Pandolfi, Nguyen). Cette recherche transpose donc l’emphase sur la nécessité effective de l’intervention vers les propriétés de l’intervention. Elle est une tentative de comprendre les expériences sociales de pouvoir dans une zone humanitaire comme Port-au-Prince.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La représentation de médias non littéraires dans un roman est un phénomène encore peu étudié, voire marginalisé, au sein des études intermédiales. La difficulté de rendre compte des moments où le texte crée des effets empruntés à d’autres médialités est souvent relevée, parmi les travaux d’analyse. Ce mémoire vise donc la construction d’un modèle qui puisse servir d’outil pour l’analyse des phénomènes intermédiaux, en littérature. Revisiter certaines propositions théoriques pour mieux les mettre en relation permet, dans un premier temps, l’élaboration d’un modèle syncrétique précis et fonctionnel pour l’étude de textes qui présentent une dynamique intermédiale. Dans cette optique, le roman Océan mer, d’Alessandro Baricco, constitue un terrain fertile pour sa mise en pratique. L’application du modèle proposé au roman de Baricco permet donc, dans un deuxième temps, de tester sa fonctionnalité. Ce mémoire se veut ainsi une contribution aux recherches portant sur l’intermédialité littéraire contemporaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le réseau Internet s’avère être un outil important pour les juristes. Il rend possible la constitution d’une base de données juridiques, la création de revues de droit, la mise sur pied de forums de discussion sur les questions de droit, la diffusion d’ouvrages, etc. Le réseau Internet facilite les recherches en droit, car grâce aux bases des données, les juristes peuvent facilement accéder notamment aux textes légaux et réglementaires, à la jurisprudence et aux textes de doctrine. Cependant, Internet peut également servir à résoudre les conflits qui surviennent dans les rapports entre les internautes ou entre les internautes et les opérateurs du réseau Internet. La cyberjustice existe déjà, à petite échelle. L’on peut se permettre de mentionner le Centre de médiation et d’arbitrage de l’OMPI, le Virtual Magistrate, l’Online Ombuds Office, le CyberTribunal et le Règlement Uniforme de l’ICANN. S’il faut saluer les efforts qui ont abouti à l’existence de ces instances de cyberjustice, il convient pourtant de reconnaître leurs limites. En effet, ces diverses formes de cyberjustice ont un caractère privé et demeurent incapables d’assurer la répression des infractions. Ensuite, elles ne tiennent pas compte du déséquilibre des rapports entre télétravailleurs et employeurs, puisqu’elles reconnaissent à ces deux groupes des droits équivalents quant au choix de la juridiction et des règles applicables. Enfin, en l’état actuel de la cyberjustice, le sens de la justice est sacrifié à la célérité. Certains droits reconnus aux parties — celui de jouir d’un double degré de juridiction en particulier — sont ignorés. Ces faits montrent bien la nécessité de concevoir des modèles d’institutions plus appropriés en vue de l’instauration d’un certain ordre dans le réseau Internet. C’est dans cette optique que la présente étude offre quelques modèles de juridictions virtuelles, dont une juridiction virtuelle répressive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La relation entre un médecin et son patient a grandement évolué. Aujourd’hui le médecin, loin de jouer le rôle paternaliste d’autrefois, se voit obligé d’établir un dialogue avec son patient. Des informations sont transmises de l’un à l’autre et de l’autre à l’un, le tout dans une optique de cogestion de la santé du patient. D’un côté le patient doit fournir au médecin les informations suffisantes pour que celui-ci établisse un diagnostic. D’un autre côté le médecin doit informer le patient de son état de santé et des mesures qu’il compte prendre. Dans la foulée du développement des nouvelles technologies, les modes de transmission de telles informations présentent de nouvelles problématiques. L’auteur propose ici une étude de la relation patient/médecin lorsqu’il s’agit de la transmission de données relatives à l’état de santé par Internet ou un réseau privé et du rôle de chacune des parties dans ce réseau en regard de la Directive 95/46/CE. Il ressort de cette étude que le médecin se voit imposer certaines responsabilités à titre de responsable du traitement, notamment en ce qui concerne le traitement des données personnelles de son patient. Ce dernier, en tant que personne concernée au sens de la Directive, se voit donc octroyer des droits fondamentaux en matière de confidentialité. De plus il détermine, en collaboration avec le médecin, les finalités du traitement de ces données personnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La complexification de nos sociétés et les limites des instruments législatifs (rigidité, opacité, etc.) minent l’efficacité du droit. Il y a un besoin criant de renouveau entre ce que l’auteur appelle la société civile et les pouvoirs de décision C’est pourquoi sont apparues au fil des années des formes alternatives d’organisations collectives, ouvertes et autorégulées. On parle alors de gouvernance. L’auteur explique cette évolution de la relation droit/gouvernance non seulement par les limites de la législation à proprement parler mais également par le développement de nouvelles techniques et technologies comme Internet qui ouvrent la porte à de nouvelles possibilités de coordination plus efficaces ainsi qu’à la protection d’intérêts divers au même titre que la loi. Internet devient alors un nouvel observatoire d’où l’on peut développer de nouvelles méthodes de gouvernance, le tout dans une optique de consensus sur la norme. En effet, il ne s’agit pas ici d’écarter le droit au profit de nouvelles formes de gouvernance ou vice-versa. On cherche à créer un système complémentaire qui viendra pallier aux faiblesses d’une législation rigide et complexe par moment et qui produira tout de même une dynamique juridique au niveau national et international.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La détermination de la loi applicable et de la juridiction compétente en ce qui concerne les contrats électroniques internationaux constitue l’un des défis les plus importants dans l’établissement d’un cadre juridique adapté au commerce électronique. La dématérialisation des échanges et le caractère international des réseaux rendent difficile l’application des règles de droit international privé conçues pour répondre aux besoins des contrats « papier ». Dans le cas du contrat électronique de consommation, la création d’instruments juridiques adaptés devient essentielle afin de renforcer le rapport de confiance devant exister entre commerçant et cyberconsommateur et d’ainsi permettre au commerce électronique de continuer son développement. Le phénomène « Internet » lié au commerce électronique provoque, depuis un certain temps, un débat au sujet des besoins d’adaptation et de renouvellement des différentes règles étatiques et internationales portant sur les conflits de lois et de juridictions. C’est dans cette optique que cet article fait l’analyse du cadre législatif général permettant la détermination de la loi applicable et de la juridiction compétente en matière de contrat électronique international. L’article aborde également l’étude des différentes règles juridictionnelles encadrant le contrat électronique de consommation et les possibles difficultés d’application de celles-ci. Est finalement analysée la validité du consentement d’un consommateur eu égard aux clauses sur la loi applicable et le tribunal compétent imposées unilatéralement par les cybermarchands.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie transgouvernementale s’appuie sur l’existence de réseaux transfrontaliers entre composantes de l’État exerçant des fonctions similaires dans une optique de gestion de problèmes communs. Le transgouvernementalisme canado-américain se caractérise par un faible abandon de souveraineté des partenaires, une forte participation des acteurs régionaux, une informalité dans les relations et une intégration des secteurs privé et public et de la société civile au sein de réseaux mixtes. Le modèle de gouvernance binationale en place dans la région du bassin du Saint-Laurent et des Grands Lacs présente toutes les caractéristiques du modèle typique d’intégration transgouvernementale canado-américain. Une analyse poussée révèle en effet une matrice complexe et solide de réseaux transgouvernementaux dont les multiples ramifications s’étendent aujourd’hui beaucoup plus loin que le strict cadre des ententes sous l’égide desquelles ces réseaux ont pris naissance. Si le modèle de l’intégration par réseaux transgouvernementaux apparaît comme la solution retenue par les pouvoirs publics dans la gestion collaborative du bassin du Saint-Laurent et des Grands Lacs, s’agit-il du modèle à privilégier en ce qui a trait à la gouvernance du Passage du Nord-Ouest? Bien que le modèle en place dans la région du Saint-Laurent et des Grands Lacs ne puisse être reproduit intégralement relativement à la gestion du Passage du Nord-Ouest, un modèle d’intégration transgouvernementale, du « bas vers le haut », axé sur la mise en place d’une réglementation commune en matière de navigation et sur une intégration opérationnelle visant à assurer la mise en œuvre de cette règlementation, s’avère approprié pour la gestion du Passage du Nord-Ouest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’examen de la rétine par des moyens non invasifs et in vivo a été un objectif de recherche pendant plusieurs années. Pour l’œil comme pour tous les organes du corps humain, un apport soutenu en oxygène est nécessaire pour le maintien de l’homéostasie. La concentration en oxygène du sang des vaisseaux rétiniens peut être déterminée principalement à partir des mesures du spectre de réflexion du fond de l’œil. En envoyant une lumière, à différentes longueurs d’onde, sur la rétine et en analysant la nature de la lumière réfléchie par la rétine, il est possible d’obtenir des informations quantitatives sur le niveau d'oxygène dans les vaisseaux sanguins de la rétine ou sur le flux sanguin. Cependant, la modélisation est compliquée due aux différentes interactions et aux chemins que la lumière prend à travers les tissus oculaires avant de quitter l’œil. L’objectif de cette thèse a été de développer et de valider un modèle mathématique afin de calculer les dérivées d’hémoglobine à partir de mesures spectrales de réflectométrie sur les vaisseaux sanguins de la rétine. L’instrument utilisé pour mesurer la fonction spectrale de réflectométrie a été un spectroréflectomètre multi-canal, une technologie capable de mesurer in vivo et en continu 800 spectres simultanément. L'équation mathématique qui décrit la fonction spectrale de réflectométrie dans la zone spectrale de 480 nm à 650 nm a été exprimée comme la combinaison linéaire de plusieurs termes représentant les signatures spectrales de l'hémoglobine SHb, de l'oxyhémoglobine SOHB, l’absorption et la diffusion des milieux oculaires et une famille de fonctions multigaussiennes utilisées pour compenser l’incompatibilité du modèle et les données expérimentales dans la zone rouge du spectre. Les résultats du modèle révèlent que le signal spectral obtenu à partir de mesures de réflectométrie dans l’œil est complexe, contenant la lumière absorbée, réfléchie et diffusée, mais chacun avec une certaine prédominance spécifique en fonction de la zone spectrale. La fonction spectrale d’absorption du sang est dominante dans la zone spectrale 520 à 580 nm, tandis que dans la zone spectrale de longueurs d’ondes plus grandes que 590 nm, la diffusion sur les cellules rouges du sang est dominante. Le modèle a été utilisé afin de mesurer la concentration d’oxygène dans les capillaires de la tête du nerf optique suite à un effort physique dynamique. L’effort physique a entraîné une réduction de la concentration d’oxygène dans les capillaires, ainsi qu’une réduction de la pression intraoculaire, tandis que la saturation sanguine en oxygène, mesurée au niveau du doigt, restait constante. Le modèle mathématique développé dans ce projet a ainsi permis, avec la technique novatrice de spectroréflectométrie multicanal, de déterminer in vivo et d’une manière non invasive l’oxygénation sanguine des vaisseaux rétiniens.