582 resultados para Procédure multipartie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail présente une modélisation rapide d’ordre élévé capable de modéliser une configuration rotorique en cage complète ou en grille, de reproduire les courants de barre et tenir compte des harmoniques d’espace. Le modèle utilise une approche combinée d’éléments finis avec les circuits-couplés. En effet, le calcul des inductances est réalisé avec les éléments finis, ce qui confère une précision avancée au modèle. Cette méthode offre un gain important en temps de calcul sur les éléments finis pour des simulations transitoires. Deux outils de simulation sont développés, un dans le domaine du temps pour des résolutions dynamiques et un autre dans le domaine des phaseurs dont une application sur des tests de réponse en fréquence à l’arrêt (SSFR) est également présentée. La méthode de construction du modèle est décrite en détail de même que la procédure de modélisation de la cage du rotor. Le modèle est validé par l’étude de machines synchrones: une machine de laboratoire de 5.4 KVA et un grand alternateur de 109 MVA dont les mesures expérimentales sont comparées aux résultats de simulation du modèle pour des essais tels que des tests à vide, des courts-circuits triphasés, biphasés et un test en charge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie de façon empirique l'effet des dépenses publiques en biens et services sur le PIB à court et à long terme. Le sujet nous semble particulièrement pertinent dans le contexte de restrictions budgétaires qui est le nôtre. Dans une première étape, nous estimons les relations à court terme entre les dépenses publiques en biens et services G, le produit intérieur brut PIB et la masse monétaire M en mode bi-varié. Un modèle VAR en différence et des données trimestrielles pour la période 1947-1994 et les sous-périodes de change fixe (1947-1970) et de change flexible (1970-1994) sont utilisées. Nos résultats semblent confirmer la validité du modèle IS-LM-BP en économie ouverte avec mobilité des capitaux. À ce sujet, la distinction change fixe/change flexible s'est avérée cruciale. Les modèles de cycles réels ne peuvent expliquer nos résultats de manière satisfaisante, en particulier en ce qui a trait au rôle de la monnaie et au régime de taux de change. Dans une deuxième étape, nous estimons les relations à long terme entre les variables G et PIB au moyen de la procédure de cointégration proposée par Juselius et Johansen (1990). Nos résultats révèlent l'existence de relations stables à long terme entre les variables G et PIB, ce qui ouvre d'intéressantes perspectives. Entre autres, nos travaux confirment de façon empirique la loi de Wagner. De plus, le processus de socialisation de la fonction de production envisagée par Wagner, Schumpeter et d'autres semble toujours être à l'oeuvre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthodologie proposée vise à estimer les sensibilités des revenus de trois caisses d'épargne et de crédit par rapport aux modifications de taux d'intérêt. Plusieurs études basées sur le MEDAF permettent d'analyser la relation rendement risque. Notre méthodologie se démarque par l'inclusion d'un facteur taux d'intérêt comme variable explicative et par la segmentation des activités à l'intérieur d'une même caisse d'épargne et de crédit. Notre démarche se détaille comme suit: présentation du cadre conceptuel, laquelle comporte une brève revue de la littérature théorique et empirique et résume l'évolution du sujet; description de la procédure utilisée, de l'échantillon et de l'estimation; l'analyse et l'interprétation des résultats obtenus pour trois caisses. Un cahier des procédures expliquant le programme développé pour l'analyse (sur GAUSS) est présenté en annexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les enjeux hydrologiques modernes, de prévisions ou liés aux changements climatiques, forcent l’exploration de nouvelles approches en modélisation afin de combler les lacunes actuelles et d’améliorer l’évaluation des incertitudes. L’approche abordée dans ce mémoire est celle du multimodèle (MM). L’innovation se trouve dans la construction du multimodèle présenté dans cette étude : plutôt que de caler individuellement des modèles et d’utiliser leur combinaison, un calage collectif est réalisé sur la moyenne des 12 modèles globaux conceptuels sélectionnés. Un des défis soulevés par cette approche novatrice est le grand nombre de paramètres (82) qui complexifie le calage et l’utilisation, en plus d’entraîner des problèmes potentiels d’équifinalité. La solution proposée dans ce mémoire est une analyse de sensibilité qui permettra de fixer les paramètres peu influents et d’ainsi réduire le nombre de paramètres total à caler. Une procédure d’optimisation avec calage et validation permet ensuite d’évaluer les performances du multimodèle et de sa version réduite en plus d’en améliorer la compréhension. L’analyse de sensibilité est réalisée avec la méthode de Morris, qui permet de présenter une version du MM à 51 paramètres (MM51) tout aussi performante que le MM original à 82 paramètres et présentant une diminution des problèmes potentiels d’équifinalité. Les résultats du calage et de la validation avec le « Split-Sample Test » (SST) du MM sont comparés avec les 12 modèles calés individuellement. Il ressort de cette analyse que les modèles individuels, composant le MM, présentent de moins bonnes performances que ceux calés indépendamment. Cette baisse de performances individuelles, nécessaire pour obtenir de bonnes performances globales du MM, s’accompagne d’une hausse de la diversité des sorties des modèles du MM. Cette dernière est particulièrement requise pour les applications hydrologiques nécessitant une évaluation des incertitudes. Tous ces résultats mènent à une amélioration de la compréhension du multimodèle et à son optimisation, ce qui facilite non seulement son calage, mais également son utilisation potentielle en contexte opérationnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis le lancement du premier satellite Spoutnik 1 en 1957, l’environnement spatial est de plus en plus utilisé et le nombre de débris orbitaux se multiplie naturellement, soit par des explosions, des collisions ou tout simplement par les opérations normales des satellites. Au-delà d'un certain seuil, la densité des débris orbitaux risque de créer une réaction en chaîne incontrôlée : l’effet Kessler. L’élimination des débris orbitaux en basse altitude permettrait de limiter cette réaction et ainsi de préserver l’environnement spatial afin de pouvoir l’utiliser de façon sécuritaire. L’élimination des débris orbitaux est une opération complexe et coûteuse. Elle consiste à déplacer des objets spatiaux inactifs vers une orbite basse pour mener à leur désintégration dans la basse atmosphère terrestre. En utilisant les perturbations orbitales, il est possible de réduire le coût du carburant requis pour effectuer les manœuvres orbitales nécessaires à l’élimination de ces débris. L'objectif principal de cette étude consiste à développer une procédure et une stratégie de commande autonome afin de modifier l'orbite des satellites non opérationnels (débris) pour mener à leur désintégration naturelle tout en optimisant les facteurs carburant et temps. Pour ce faire, un modèle d’atmosphère basé sur le modèle de Jacchia (1977) est développé. Un modèle de la dynamique du satellite inclut aussi les perturbations principales, soit : traînée atmosphérique, non sphéricité et distribution non uniforme de la masse de la Terre. Ces modèles ainsi qu'un algorithme de commande optimale pour un propulseur électrique sont développés et le tout est validé par simulations numériques sur Matlab/Simulink. Au terme de cette étude, les conditions optimales dans lesquelles il faut laisser un débris afin qu'il se désintègre dans la basse atmosphère de la Terre en quelques semaines seront données (type d'orbite : altitude, inclinaison, etc.) ainsi que le coût en carburant pour une telle mission. Cette étude permettra de prouver qu'il est possible de réaliser des missions d'élimination des débris orbitaux tout en réduisant les coûts associés aux manœuvres orbitales par l'utilisation des perturbations naturelles de l'environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour assurer une gestion adéquate des écosystèmes nordiques à l’approche du développement de nouvelles activités économiques, le Centre d’expertise en analyse environnementale du Québec a pris l’initiative d’adapter certains de ses outils, plus particulièrement sa Procédure d’évaluation du risque écotoxicologique. En effet, bien que l’outil soit applicable au Québec méridional, des recommandations pour adapter la méthodologie au Nord en permettraient une utilisation plus judicieuse pour les divers intervenants utilisant cet outil de gestion de l’environnement. L’objectif de cet essai est d’identifier les aspects de l’outil devant être adaptés pour son application dans le Nord québécois et de proposer des recommandations pour y arriver. Ainsi, une première analyse des activités économiques en essor sur le territoire a permis d’identifier les substances qui pourraient être problématiques et pour lesquelles aucun critère de gestion ou de valeur toxicologique de référence n’est disponible au Québec, comme les métaux des terres rares, l’uranium et les fractions des hydrocarbures pétroliers. Une recherche approfondie sur les particularités du territoire à l’étude a permis, pour sa part, d’identifier des espèces écologiques représentatives et qui pourraient être utilisées comme récepteurs potentiels. À la suite de l’analyse de l’outil de gestion d’évaluation du risque écotoxicologique, trois recommandations principales ont pu être émises dans le but de l’adapter à ce territoire unique : 1) établir des critères de sols pour les contaminants susceptibles d’être émis dans le Nord québécois, 2) développer des valeurs toxicologiques de références pour le plus haut niveau de sensibilités pour ces mêmes substances et 3) recueillir les informations nécessaires sur des récepteurs nordiques clés pour pouvoir évaluer le risque écotoxicologique qu’ils courent. Finalement, un exemple d’application des recommandations, notamment l’utilisation de nouveaux récepteurs, tels que le caribou migrateur et le lièvre arctique, ainsi que l’utilisation de critères génériques et de valeurs toxicologiques de référence d’autres juridictions, a permis d’évaluer le risque pour un cas fictif en milieu nordique. Bien que le besoin d’investir des efforts de recherches pour pallier certaines lacunes ait été identifié, les recommandations proposées permettront de cibler ces efforts sur les éléments les plus problématiques pour permettre, finalement, d’adapter l’outil aux réalités des écosystèmes fragiles et uniques de ce territoire particulier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dégradation du béton associée à l’exposition en ambiance hivernale rigoureuse est une problématique connue en Amérique du Nord en raison de la sévérité du climat en période hivernale. Un des types de dégradation, la fissuration interne, se manifeste par l'apparition d'une intense microfissuration du béton en surface, mais aussi à l'intérieur de la masse. Celle-ci peut conduire à une perte de cohésion du matériau, réduisant ses caractéristiques mécaniques et sa perméabilité. Dans un souci de développement durable et de recherche performancielle, des liants ternaires, comprenant des ajouts minéraux autre que la fumée de silice ont été développés. Les études scientifiques portant sur l’influence du facteur d’espacement à ce type de dégradation sont peu nombreuses, voire inexistantes. Il est par conséquent important de vérifier si les spécifications actuelles permettent d’assurer la confection d’un matériau durable au gel. Dans ce mémoire, nous avons étudié l’influence du facteur d’espacement, du paramètre E/L, de l’influence du type de superplastifiant et d’un granulat marginal sur la résistance à la fissuration interne des bétons en utilisant l’essai accéléré normalisé ASTM C666, procédure A lors de l’utilisation de liants ternaires. Une grande partie de cette recherche a porté sur l’étude de la relation entre le facteur d’espacement et la tenue aux cycles gel-dégel des bétons. Le projet s’est divisé en 4 phases, la première a permis de déterminer un intervalle contenant le facteur d’espacement critique pour chacun des liants étudiés. Il est ainsi établi qu’il est nécessaire d’avoir un facteur d’espacement inférieur à 340 µm pour assurer la durabilité des bétons V-S formulés à partir de liants ternaires. La deuxième phase a montré que le type de superplastifiant n’influe pas sur le facteur d’espacement critique, mais change les caractéristiques du réseau d’air à l’état frais. La troisième phase a porté sur l’analyse de l’influence d’une variation du rapport E/L sur la durabilité au gel-dégel. Il en résulte qu’une variation dans les limites permises n’a pas d’incidence sur le facteur d’espacement critique tant que les hypothèses restent dans l’intervalle prescrit par le tome VII de la norme 3101. La dernière et quatrième phase a permis de montrer que le granulat marginal sélectionné n’a pas d’incidence particulière sur la résistance au gel-dégel en fissuration interne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les chengyu, expressions idiomatiques spécifiques du chinois mandarin, forment l’une des pierres angulaires de la phraséologie de cette langue. Leur lourd bagage historique et leur forte prégnance stylistique en font certainement l’un des aspects les plus intéressants et les plus riches du chinois, mais aussi l’un des plus difficiles à maitriser pour les apprenants et les traducteurs de la langue de Confucius. La présente thèse, menée en cotutelle, se veut une exploration des chengyu et de leurs perspectives traductologiques. Notre travail se déroule en deux phases majeures :l’une consacrée à une analyse phraséologique et l’autre consistant en une plongée dans la critique des traductions.Constatant le faible nombre d’études occidentales sur ces expressions idiomatiques, nous effectuerons tout d’abord une brève présentation linguistique dans le but d’en dégager des critères définitoires, sinon archétypaux. Nous montrerons combien cette tâche se révèle difficile, vu le manque de consensus entre les spécialistes — en particulier sinophones. Nous proposerons d’examiner les chengyu à travers le prisme de la tradition phraséologique occidentale, dont nous détaillerons le potentiel mais aussi les limites. Le sujet de notre travail n’étant pas de trancher pour de bon la délicate question de la définition et de la démarcation précise des chengyu, nous lancerons toutefois quelques pistes qui seront autant de critères que nous éprouverons dans la deuxième phase de la thèse.Celle-ci tourne le dos à la linguistique pour embrasser pleinement la voie de la traductologie, puisque nous tenterons d’élaborer un modèle pour la critique de la traduction des chengyu. Après un bref état de l’art sur la discipline en Occident et en Chine, nous détaillerons la procédure que nous suivrons pour évaluer le plus objectivement possible, sans jugement de valeur, les éventuels effets que pourrait avoir la traduction des chengyu dans l’interprétation de quatre romans chinois contemporains par des lecteurs cibles francophones. L’examen se découpe en quatre étapes: présentation macroscopique générale, analyse macroscopique statistique, analyse microscopique qualitative et conclusions macroscopiques. Le cœur de la critique se concentre sur la polyphonie textuelle et sur la multiplicité des chemins interprétatifs contenus dans les chengyu, ainsi que sur les effets traductifs qui peuvent les toucher.Les résultats de cette enquête montrent que, dans notre corpus de quatre romans, les différentes techniques mises en œuvre pour traduire les chengyu n’altèrent en rien l’interprétation des textes originaux par les lecteurs cibles. La conclusion de la thèse ouvre la possibilité d’étendre le même type de critique à d’autres phrasèmes du chinois.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pigeon pea ( Cajanus cajan (L.) Millsp.) is a drought tolerant pulse legume, mainly grown for grain in the semi-arid tropics, particularly in Africa. Pigeon pea production in countries like Kenya is faced with a number of challenges, particularly lack of high quality seeds. The objective of this study was to develop an in vitro regeneration system for pigeon pea varieties grown in Kenya, that is amenable to genetic transformation. In vitro regeneration of pigeon pea varieties, KAT 60/8 and ICEAP 00557, commonly grown in Kenya was achieved using leaf explants from in vitro grown seedlings, through callus initiation, followed by shoot and root induction. For callus initiation, MS media supplemented with 0.5-4 mg l-1 2, 4-D and TDZ separately were tested, and IBA at 0.1, 0.5 and 1 mg l-1 was tested for rooting of shoots. Embryogenic calli was obtained on MS containing 2, 4- D; whereas TDZ induced non-embryogenic callus alone or with shoots directly on explants. Indirect shoot regeneration frequency of 6.7 % was achieved using 1 mg l-1 2, 4-D-induced embryogenic callus obtained using KAT 60/8 explants. Whereas direct shoot regeneration frequencies of 20 and 16.7% were achieved using ICEAP 00557 and KAT 60/8 explants, using 0.5 mg l-1 and 2 mg l-1 TDZ, respectively. Optimum rooting was achieved using 0.5 mg l-1 IBA; and up to 92% rooted shoots were successfully established in soil after acclimatisation. Genotype and hormone concentrations had a significant (P<0.05) influence on callus, shoot and root induction. The protocol developed can be optimised for mass production and genetic transformation of KAT 60/8 variety.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This report presents a new extraction method of the dinophysistoxins (DTXs), confirmed by quantification using high-performance liquid chromatography coupled to mass spectrometry with an ion trap and electro spray interface (HPLC/ESI/MS2). The method originality consists on the adaptation of DTXs basic extraction procedure (liquid/ liquid) to a solid phase extraction (SPE) via a robotic station: ASPEC XLi The parameters of the automatization procedure were optimized to obtain the best DTXs recovery rate. These improvements were loaded with digestive gland mussel homogenat realized on a silica cartridge SPE, activated in hexane/chloroform (50:50), washed with hexane/chloroform (50:50) and extracted by an elution gradient (chloroform methanol (65:35) and methanol (100%)). This method was validated according to two normative referentials (linearity, detection quantification limits and accuracy…) : - The Guide of the Pharmacy industry: Analytical Validation, report of the commission SFSTP 1992 (French Corporation of the Sciences and Technical Pharmaceutical), - - The Procedure of validation of an alternative method in compare to a reference method. (AFNOR, 1998. NF V 03-110). Comparison with the classical liquid/liquid extraction and the automated method present clear advantages. In an analytical method the extraction is generally considered to be the most labor-intensive and error-prone step. This new procedure allowed us to increase throughput, to improve the reproducibility and to reduce the error risks due to the individual manual treatments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Certaines recherches ont investigué le traitement visuel de bas et de plus hauts niveaux chez des personnes neurotypiques et chez des personnes ayant un trouble du spectre de l’autisme (TSA). Cependant, l’interaction développementale entre chacun de ces niveaux du traitement visuel n’est toujours pas bien comprise. La présente thèse a donc deux objectifs principaux. Le premier objectif (Étude 1) est d’évaluer l’interaction développementale entre l’analyse visuelle de bas niveaux et de niveaux intermédiaires à travers différentes périodes développementales (âge scolaire, adolescence et âge adulte). Le second objectif (Étude 2) est d’évaluer la relation fonctionnelle entre le traitement visuel de bas niveaux et de niveaux intermédiaires chez des adolescents et des adultes ayant un TSA. Ces deux objectifs ont été évalué en utilisant les mêmes stimuli et procédures. Plus précisément, la sensibilité de formes circulaires complexes (Formes de Fréquences Radiales ou FFR), définies par de la luminance ou par de la texture, a été mesurée avec une procédure à choix forcés à deux alternatives. Les résultats de la première étude ont illustré que l’information locale des FFR sous-jacents aux processus visuels de niveaux intermédiaires, affecte différemment la sensibilité à travers des périodes développementales distinctes. Plus précisément, lorsque le contour est défini par de la luminance, la performance des enfants est plus faible comparativement à celle des adolescents et des adultes pour les FFR sollicitant la perception globale. Lorsque les FFR sont définies par la texture, la sensibilité des enfants est plus faible comparativement à celle des adolescents et des adultes pour les conditions locales et globales. Par conséquent, le type d’information locale, qui définit les éléments locaux de la forme globale, influence la période à laquelle la sensibilité visuelle atteint un niveau développemental similaire à celle identifiée chez les adultes. Il est possible qu’une faible intégration visuelle entre les mécanismes de bas et de niveaux intermédiaires explique la sensibilité réduite des FFR chez les enfants. Ceci peut être attribué à des connexions descendantes et horizontales immatures ainsi qu’au sous-développement de certaines aires cérébrales du système visuel. Les résultats de la deuxième étude ont démontré que la sensibilité visuelle en autisme est influencée par la manipulation de l’information locale. Plus précisément, en présence de luminance, la sensibilité est seulement affectée pour les conditions sollicitant un traitement local chez les personnes avec un TSA. Cependant, en présence de texture, la sensibilité est réduite pour le traitement visuel global et local. Ces résultats suggèrent que la perception de formes en autisme est reliée à l’efficacité à laquelle les éléments locaux (luminance versus texture) sont traités. Les connexions latérales et ascendantes / descendantes des aires visuelles primaires sont possiblement tributaires d’un déséquilibre entre les signaux excitateurs et inhibiteurs, influençant ainsi l’efficacité à laquelle l’information visuelle de luminance et de texture est traitée en autisme. Ces résultats supportent l’hypothèse selon laquelle les altérations de la perception visuelle de bas niveaux (local) sont à l’origine des atypies de plus hauts niveaux chez les personnes avec un TSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’imagerie musicale involontaire (IMIN) est un phénomène mental extrêmement commun. Il peut être défini en tant que type d’imagerie mentale musicale qui devient consciente sans effort ou intentionnalité et qui n’est pas pathologique. La forme la plus connue d’IMIN est le « ver d’oreille », qui se présente généralement comme un court extrait musical tournant en boucle en tête et dont on se débarrasse difficilement. L’objectif principal de la présente thèse est d’investiguer les mécanismes cognitifs sous-tendant le phénomène puisque, malgré l’intérêt répandu dans les médias populaires, son étude expérimentale est récente et un modèle intégré n’a pas encore été proposé. Dans la première étude, l’induction expérimentale a été tentée et les caractéristiques des images mentales d’épisodes d’IMIN ont été investiguées. Dans le laboratoire, des chansons accrocheuses (versus des proverbes) ont été présentées répétitivement aux participants qui devaient ensuite les chanter le plus fidèlement possible. Ils ont par après quitté le laboratoire, une enregistreuse numérique en mains, avec la consigne d’enregistrer une reproduction vocale la plus fidèle possible de ce qu’ils avaient en tête lors de tous leurs épisodes d’IMIN sur une période de quatre jours, ainsi que de décrire leur timbre. L’expérience a été répétée deux semaines plus tard. Douze des dix-huit participants du groupe expérimental ont rapporté des pièces induites comme épisodes d’IMIN, ce qui confirme l’efficacité de la procédure d’induction. La tonalité et le tempo des productions ont ensuite été analysés et comparés à ceux des pièces originales. Similairement pour les épisodes d’IMIN induits et les autres, les tempi produits et, dans une moindre mesure pour les non-musiciens, les tonalités étaient proches des originaux. Le timbre décrit était généralement une version simplifiée de l’original (un instrument et/ou une voix). Trois études se sont ensuite intéressées au lien entre le potentiel d’IMIN et la mémorabilité. Dans une étude préliminaire, 150 chansons du palmarès francophone radiophonique ont été évaluées en ligne par 164 participants, sur leur niveau de familiarité, d’appréciation et de potentiel d’IMIN. Les pièces ont ensuite été divisées en groupes de stimuli à faible et à fort potentiel d’IMIN, qui ont été utilisés dans une tâche typique de rappel libre/reconnaissance, premièrement avec des francophones (pour qui les pièces étaient familières) et ensuite avec des non-francophones (pour qui les pièces étaient non-familières). Globalement, les pièces à fort potentiel d’IMIN étaient mieux rappelées et reconnues que les pièces à faible potentiel. Une dernière étude a investigué l’impact de la variabilité inter-stimulus du timbre sur les résultats précédents, en demandant à une chanteuse d’enregistrer les lignes vocales des pièces et en répétant l’expérience avec ces nouveaux stimuli. La différence précédemment observée entre les stimuli à fort et à faible potentiel d’IMIN dans la tâche de reconnaissance a ainsi disparu, ce qui suggère que le timbre est une caractéristique importante pour le potentiel d’IMIN. En guise de conclusion, nous suggérons que les phénomènes mentaux et les mécanismes cognitifs jouant un rôle dans les autres types de souvenirs involontaires peuvent aussi s’appliquer à l’IMIN. Dépendamment du contexte, la récupération mnésique des pièces peut résulter de la répétition en mémoire à court terme, de l’amorçage à court et long terme ou de l’indiçage provenant de stimuli dans l’environnement ou les pensées. Une des plus importantes différences observables entre l’IMIN et les autres souvenirs involontaires est la répétition. Nous proposons que la nature même de la musique, qui est définie par la répétition à un niveau micro- et macro-structurel en est responsable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet illustre cinq études, mettant l'emphase sur le développement d'une nouvelle approche diagnostique cardiovasculaire afin d'évaluer le niveau d’oxygène contenu dans le myocarde ainsi que sa fonction microvasculaire. En combinant une séquence de résonance magnétique cardiovasculaire (RMC) pouvant détecter le niveau d’oxygène (OS), des manœuvres respiratoires ainsi que des analyses de gaz artériels peuvent être utilisés comme procédure non invasive destinée à induire une réponse vasoactive afin d’évaluer la réserve d'oxygénation, une mesure clé de la fonction vasculaire. Le nombre de tests diagnostiques cardiaques prescrits ainsi que les interventions, sont en pleine expansion. L'imagerie et tests non invasifs sont souvent effectués avant l’utilisation de procédures invasives. L'imagerie cardiaque permet d’évaluer la présence ou absence de sténoses coronaires, un important facteur économique dans notre système de soins de santé. Les techniques d'imagerie non invasives fournissent de l’information précise afin d’identifier la présence et l’emplacement du déficit de perfusion chez les patients présentant des symptômes d'ischémie myocardique. Néanmoins, plusieurs techniques actuelles requièrent la nécessité de radiation, d’agents de contraste ou traceurs, sans oublier des protocoles de stress pharmacologiques ou physiques. L’imagerie RMC peut identifier une sténose coronaire significative sans radiation. De nouvelles tendances d’utilisation de RMC visent à développer des techniques diagnostiques qui ne requièrent aucun facteur de stress pharmacologiques ou d’agents de contraste. L'objectif principal de ce projet était de développer et tester une nouvelle technique diagnostique afin d’évaluer la fonction vasculaire coronarienne en utilisant l' OS-RMC, en combinaison avec des manœuvres respiratoires comme stimulus vasoactif. Ensuite, les objectifs, secondaires étaient d’utilisés l’OS-RMC pour évaluer l'oxygénation du myocarde et la réponse coronaire en présence de gaz artériels altérés. Suite aux manœuvres respiratoires la réponse vasculaire a été validée chez un modèle animal pour ensuite être utilisé chez deux volontaires sains et finalement dans une population de patients atteints de maladies cardiovasculaires. Chez le modèle animal, les manœuvres respiratoires ont pu induire un changement significatif, mesuré intrusivement par débit sanguin coronaire. Il a été démontré qu’en présence d'une sténose coronarienne hémodynamiquement significative, l’OS-RMC pouvait détecter un déficit en oxygène du myocarde. Chez l’homme sain, l'application de cette technique en comparaison avec l'adénosine (l’agent standard) pour induire une vasodilatation coronarienne et les manœuvres respiratoires ont pu induire une réponse plus significative en oxygénation dans un myocarde sain. Finalement, nous avons utilisé les manœuvres respiratoires parmi un groupe de patients atteint de maladies coronariennes. Leurs myocardes étant altérées par une sténose coronaire, en conséquence modifiant ainsi leur réponse en oxygénation. Par la suite nous avons évalué les effets des gaz artériels sanguins sur l'oxygénation du myocarde. Ils démontrent que la réponse coronarienne est atténuée au cours de l’hyperoxie, suite à un stimuli d’apnée. Ce phénomène provoque une réduction globale du débit sanguin coronaire et un déficit d'oxygénation dans le modèle animal ayant une sténose lorsqu’un supplément en oxygène est donné. En conclusion, ce travail a permis d'améliorer notre compréhension des nouvelles techniques diagnostiques en imagerie cardiovasculaire. Par ailleurs, nous avons démontré que la combinaison de manœuvres respiratoires et l’imagerie OS-RMC peut fournir une méthode non-invasive et rentable pour évaluer la fonction vasculaire coronarienne régionale et globale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The CATARINA Leg1 cruise was carried out from June 22 to July 24 2012 on board the B/O Sarmiento de Gamboa, under the scientific supervision of Aida Rios (CSIC-IIM). It included the occurrence of the OVIDE hydrological section that was performed in June 2002, 2004, 2006, 2008 and 2010, as part of the CLIVAR program (name A25) ), and under the supervision of Herlé Mercier (CNRSLPO). This section begins near Lisbon (Portugal), runs through the West European Basin and the Iceland Basin, crosses the Reykjanes Ridge (300 miles north of Charlie-Gibbs Fracture Zone, and ends at Cape Hoppe (southeast tip of Greenland). The objective of this repeated hydrological section is to monitor the variability of water mass properties and main current transports in the basin, complementing the international observation array relevant for climate studies. In addition, the Labrador Sea was partly sampled (stations 101-108) between Greenland and Newfoundland, but heavy weather conditions prevented the achievement of the section south of 53°40’N. The quality of CTD data is essential to reach the first objective of the CATARINA project, i.e. to quantify the Meridional Overturning Circulation and water mass ventilation changes and their effect on the changes in the anthropogenic carbon ocean uptake and storage capacity. The CATARINA project was mainly funded by the Spanish Ministry of Sciences and Innovation and co-funded by the Fondo Europeo de Desarrollo Regional. The hydrological OVIDE section includes 95 surface-bottom stations from coast to coast, collecting profiles of temperature, salinity, oxygen and currents, spaced by 2 to 25 Nm depending on the steepness of the topography. The position of the stations closely follows that of OVIDE 2002. In addition, 8 stations were carried out in the Labrador Sea. From the 24 bottles closed at various depth at each stations, samples of sea water are used for salinity and oxygen calibration, and for measurements of biogeochemical components that are not reported here. The data were acquired with a Seabird CTD (SBE911+) and an SBE43 for the dissolved oxygen, belonging to the Spanish UTM group. The software SBE data processing was used after decoding and cleaning the raw data. Then, the LPO matlab toolbox was used to calibrate and bin the data as it was done for the previous OVIDE cruises, using on the one hand pre and post-cruise calibration results for the pressure and temperature sensors (done at Ifremer) and on the other hand the water samples of the 24 bottles of the rosette at each station for the salinity and dissolved oxygen data. A final accuracy of 0.002°C, 0.002 psu and 0.04 ml/l (2.3 umol/kg) was obtained on final profiles of temperature, salinity and dissolved oxygen, compatible with international requirements issued from the WOCE program.