558 resultados para Marchés électroniques
Resumo:
L'hypothèse sous-jacente au modèle de marché de SHARPE(1964) est que les actifs ont une tendance à évoluer ensemble seulement à cause du lien commun qu'ils ont avec le marché. Depuis lors, quelques recherches ont permis de découvrir qu'il y a d'autres facteurs qui influencent le mouvement des prix des actifs financiers. Notamment, KING(1963), MEYERS(1973), FARRELL(1970,74,77), LIVINGSTON(1977) et ARNOTT(1980) ont cerné quelques-uns de ces autres facteurs. ROLL et ROSS(1976) ont spécifié un modèle général qui tient compte de facteurs importants dans les marchés financiers. Cependant, les tests empiriques sur l'A.P.T. (arbitrage pricing theory) effectués par CHEN, ROLL et ROSS(1986) n'ont pas donné de résultats probants. L'objectif de cette étude sera d'étudier le comportement des sous-indices de la Bourse de Toronto pour créer un modèle multifacteurs selon la méthodologie de James L. FARRELL. En bref, on étudie les comportements des actifs financiers par l'utilisation de procédures de regroupements statistiques pour former quelques indices supplémentaires au modèle de marché de SHARPE(1964).
Resumo:
Cette étude rend compte de la surprise d'une étudiante qui s'est mise à lire sur les déficiences, les incapacités et les handicaps moteurs des personnes. L'étonnement vient du fait qu'entre 12 et 13% des québécois ont des limitations sur le plan de la mobilité, de l'agilité, de la vision, de l'audition, de la parole ou encore des habiletés intellectuelles. Un peu moins du tiers ont des incapacités classées comme graves, un tiers "moyennes" et un peu plus du tiers "légères" (Office des personnes handicapée du Québec, 1994-1995) Une autre surprise fut de constater le sous-développement de la recherche sur les personnes handicapées et en particulier sur la consommation des personnes à déficience motrice, et cela malgré l'importance et la pertinence du sujet. Le défi, c'est de se mettre à la tâche pour développer et expérimenter des stratégies de marketing spécialement conçues pour explorer le marché attrayant des personnes handicapées. Cette étude porte sur les similitudes et les différences entre les personnes à déficience motrice et les personnes sans incapacité quant aux orientations et aux comportements de consommation. Comme nous le verrons, les deux groupes qui ont été intégrés dans cette recherche sont semblables au regard des variables sociodémographiques, de l'importance accordée au magasinage et du degré de matérialisme. La présente étude examinera également les différences et les similitudes au niveau de plusieurs variables comme le degré d'innovation, l'influence sociale et le processus de décision. Les résultats de cette recherche montrent l'importance et la nécessité du sujet pour les chercheurs et les praticiens en marketing. Ces derniers oeuvrent dans un milieu compétitif qui a épuisé ses moyens de différenciation. Ils ont de plus en plus de difficulté à s'attirer de nouveaux clients à cause de la saturation des marchés. Les personnes à déficience motrice constituent un marché attrayant qui peut permettre aux magasins de se distinguer des autres en se créant une bonne image de marque grâce au caractère social de ce type de différenciation.
Resumo:
Le traité du libre-échange entre les États-Unis et le Canada, l'intégration économique des 12 pays d'Europe et les changements politiques et socio-économiques survenus dans les pays de l'Est sont des exemples d'événements qui ont marqué la fin de la dernière décennie. Ces événements ont pour effet de modifier les règles du jeu de la concurrence internationale en matière de commerce et d'affecter directement les activités des entreprises oeuvrant aussi bien dans les marchés étrangers que domestiques. La firme doit avoir la capacité de connaître davantage le comportement de la clientèle-cible et celui de la concurrence afin de mieux adapter ses stratégies de marketing à cette nouvelle réalité. Les décisions auxquelles les exportateurs et les producteurs locaux ont toujours fait face ont trait à des variables stratégiques, entre autres le prix, le nom de la marque, la promotion, la distribution, le service et le lieu de fabrication ("Made-In"). Cette dernière variable a toujours été d'une grande importance pour les firmes ayant des opérations étrangères; en effet, elle touche deux aspects décisionnels à savoir, le coût d'installation des unités de production dans un pays étranger et la réputation ou l'image de ce dernier chez le consommateur. La présence de produits importés à côté des produits domestiques augmente l’éventail de choix du consommateur. Cependant, sa préférence pour un produit par rapport à un autre dépend de plusieurs éléments, soit des facteurs reliés au produit comme son prix compétitif ou sa qualité supérieure, ou bien des facteurs de personnalité, comme le besoin de prestige et d'appartenance.
Resumo:
Les ressources rares tendent naturellement à la création de marchés et les marchés tendent généralement à s'équilibrer par un mécanisme ou un autre. Le prix nominal est sans contredit le mécanisme d'équilibre le plus courant et le plus étudié par la science économique. Or, lorsque celui-ci est déterminé de façon exogène, d'autres mécanismes entrent en ligne de compte pour équilibrer le marché. Pensons aux files d'attente, dans lesquelles le coût d'opportunité d'attendre physiquement permet de contrôler les excès de demande. Par ailleurs, certaines listes d'attente sont qualifiées d'in abstentia, c'est- à-dire que l'agent économique peut vaquer à toutes ses autres occupations pendant qu'il est dans l'attente de l'obtention du bien ou du service voulu. Ce genre de marché a été particulièrement étudié dans le contexte médical, où on a supposé que c'était la diminution dans le temps de la valeur présente du service obtenu qui permettait de contrôler les surplus de demande. Posé simplement, lorsqu'il y a excès de demande, les délais augmentent, ce qui ferait diminuer la quantité demandée. Dans le cadre de notre étude, nous reprenons cette intuition et l'adaptons au marché des services judiciaires civils québécois. Les différents tarifs sont déterminés de façon exogène par l'administration provinciale et l'offre présente un caractère fixe ou très rigide, ce qui permet de croire que toute augmentation de demande devrait se traduire par une augmentation des délais judiciaires. En nous basant sur un modèle théorique développé dans le cadre des listes d'attente médicales, nous développons un modèle qui illustre de quelle façon les délais peuvent jouer le rôle de prix sur le marché des services judiciaires civils et ainsi permettre à ce dernier de s'équilibrer. Il s'agit à notre avis du premier modèle algébrique de ce genre. Nous disposons de données empiriques pour les districts judiciaires québécois durant la période 1995-2007 qui appuient nos hypothèses initiales. Notre étude revêt en quelque sorte un caractère d'expérience naturelle puisque durant cette période, la compétence maximale de certains tribunaux a été augmentée substantiellement, ce qui s'apparente à un choc de demande permanent. Tout spécialement au niveau des petites créances, le seuil maximal d'éligibilité est passé de 3000 $ à 7000 $ en 2002. À supposer que le marché ne s'équilibre pas par un mécanisme quelconque, le nombre de justiciables dans la liste d'attente devrait avoir augmenté et cette augmentation devrait s'être maintenue durant les années subséquentes, faisant exploser la liste d'attente. Or, ce n'est pas du tout ce qui est observé, d'où la pertinence de fournir une explication sur le fonctionnement du marché des services judiciaires civils. Notre modèle concilie le fait que la demande pour les services judiciaires civils ait augmenté continuellement avec le temps mais que la quantité demandée ait diminué par le fait même. Nous suggérons en effet que la quantité demandée et la quantité offerte sont corrélées négativement avec les délais, ce qui permettrait en bout de ligne d'envisager une diminution constante du nombre de dossiers ouverts à l'équilibre, de pair avec une augmentation des délais.
Resumo:
L’électronique organique suscite un intérêt grandissant en recherche grâce aux nouvelles possibilités qu’elle offre pour faciliter l’intégration de dispositifs électroniques dans nos vies. Grâce à elle, il est possible d’envisager des produits légers, flexibles et peu coûteux à produire. Les classes majeures de dispositifs étudiées sont les cellules photovoltaïques organiques (CPO) et les transistors organiques à effet de champ (TOEC). Dans les dernières années, une attention particulière a été portée sur les méthodes de polymérisation des matériaux organiques entrant dans la fabrication de ces dispositifs. La polymérisation par (hétéro)arylation directe (PHAD) catalysée au Pd offre une synthèse sans dérivé organométallique utilisant simplement un lien C-H aromatique, ce qui facilite la purification, diminue le nombre d’étapes et rend possible la production de matériaux à plus faible coût. De plus, la PHAD permet la préparation de matériaux qui était difficile, voire impossible, à obtenir auparavant. Cependant, l’inconvénient majeur de la PHAD reste sa limitation à certaines classes de polymères possédant des monomères ayant des positions bloquées favorisant qu’une seule paire de liaisons C-H. Dans le cadre de ces travaux de doctorat, l’objectif général est d’étudier la polymérisation par PHAD afin d’accéder à des classes de monomères qui n’étaient pas envisageables auparavant et à étendre l’application de cet outil dans le domaine des polymères conjugués. Plus spécifiquement, nous avons étudié l’utilisation de groupements protecteurs et partants sur des unités de benzodithiophènes et de bithiophène-silylés. Suivant ces résultats, nos travaux ont porté sur la polymérisation de dérivés de bithiophènes avec des bromo(aryle)s, une classe de polymères fréquemment utilisée en électronique organique mais qui était jugée impossible à polymériser par PHAD auparavant. Cette étude a montré l’importance de contrôler la PHAD afin d’obtenir le polymère souhaité. Finalement, nous avons étudié l’effet du système catalytique sur le taux de β−ramifications lors de la synthèse de polymères à base de thiophènes. Dans cette dernière étude, nous avons démontré l’importance d’utiliser des outils de caractérisation adéquats afin de confirmer la qualité des polymères obtenus.
Resumo:
L'évolution très rapide de l'économie, la globalisation des marchés et l'incertitude liée aux conditions économiques obligent les organisations, autant les petites que les grandes, à faire un effort systématique pour connaître à tout moment leur situation actuelle, pour prévoir où elles seront dans quelques mois ou quelques années et pour analyser les stratégies et les opportunités en accord avec les buts et les objectifs qu’elles se sont donnés. Les entreprises se sont dotées au cours des vingt dernières années, de systèmes informatisés de plus en plus complexes afin de connaître leurs résultats financiers. Mais ces systèmes se sont graduellement alourdis au cours des ans, si bien qu'ils ne peuvent montrer de façon rapide la véritable situation de la firme. Pourtant, l’administrateur a besoin de cette information de façon instantanée. De plus, les systèmes informatisés implantés dans les entreprises n'ont pas été développés pour simuler l'avenir : le gestionnaire est souvent obligé de se fier à son instinct. Cependant, à cause de la vitesse vertigineuse à laquelle elle évolue, de la multitude de problèmes différents et complexes qui l’assaillent et de la concurrence de plus en plus difficile et féroce, l'entreprise qui n'a pas à sa disposition des outils informatiques efficaces risque de se faire dépasser par ses concurrentes. Heureusement, les derniers développements technologiques en micro et en mini-informatique permettent aux organisations de résoudre plus facilement beaucoup de leurs problèmes. L'avènement récent de logiciels spécialisés dans la livraison aux décideurs des informations essentielles à la bonne gestion et à la prise de décision permet à l'entreprise de demeurer très compétitive. Ces systèmes sont très faciles à opérer: le dirigeant a accès à l’information sans assistance technique. Ces nouveaux outils permettent au cadre de s'assurer que son organisation est en bonne santé ou, le cas échéant, de corriger les problèmes. Ces systèmes, communément appelés des tableaux de bord pour administrateurs, aident ceux-ci à analyser les tendances et à chiffrer les différentes stratégies. La présente étude vise à appliquer aux cégeps ce type de système informatique.
Resumo:
Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.
Resumo:
Marshall McLuhan écrit quelque part à peu près ceci: "vous jouez devant une salle vide; les spectateurs l'ont quittée depuis vingt ans". Devant le discours des analystes et critiques sociologues, philosophes, théologiens, administrateurs, diffuseurs et les autres sur 1es moyens de communication de masse-surtout les moyens électroniques-, l'auteur de La Galaxie Gutenberg et de Pour comprendre les Média semble éprouver à la fois une indignation amusée et angoissée. C'est que malgré l'habileté avec laquelle ils manient les concerts, les principes, les catégories dans l'analyse et l'interprétation de la réalité technologique, ils pêchent de ne point atteindre la "vraie” réalité et ainsi voient la vraie connaissance leur échapper.
Resumo:
Les agents économiques tentent de maximiser le rendement des épargnes qui leurs sont confiées. Ils doivent placer et répartir ces sommes qui composeront leur portefeuille parmi les différents titres financiers disponibles (bons du Trésor, obligations, actions, options, etc.) selon des horizons de placement bien précis et selon une politique de gestion du risque appropriée. Pour maximiser le rendement total d'un portefeuille, les agents doivent analyser et interpréter l'information susceptible d'influencer les différents titres. Deux grands types d'approches les assistent dans leurs décisions: l'approche dite d'analyse technique et celle de l'analyse dite fondamentale. La première approche repose sur l'utilisation de données historiques internes au fonctionnement des marchés financiers. Elle cherche à identifier des tendances aux patterns qui pourraient servir de base à l'établissement de stratégies susceptibles de générer des rendements supérieurs, voire anormaux, par rapport aux rendements autrement possibles. Cette approche met en cause la forme faible de l'efficience des marchés. L'approche de l'analyse fondamentale consiste à analyser les caractéristiques de base de l'économie, de l'industrie, de même que les caractéristiques propres à chaque firme afin d'évaluer leurs capacités futures à générer des bénéfices. L'exercice vise à identifier des firmes sur ou sous-évaluées par les marchés financiers. En ce sens, l'analyse fondamentale peut mettre en cause les formes semiforte et forte d'efficience. […]
Resumo:
Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire.
Resumo:
Pour augmenter sa compréhension du monde qui l’entoure, le physicien moderne ne cesse de travailler au développement d’outils théoriques ou expérimentaux pour l’aider à répondre à ses questions fondamentales. Une partie de ces chercheurs tente de répondre à une question bien définie, mais simultanément très vague : qu’est-ce que le bruit électro- nique? Guidés par cette idée, certains étudient des dispositifs comme la jonction tunnel ou la jonction Josephson, alors que d’autres travaillent à l’amélioration des méthodes de détection du bruit. Le présent mémoire de maîtrise traite donc de la conception d’un outil de détection bien particulier, le micro-bolomètre supraconducteur de niobium-titane-niobium. La théorie derrière le fonctionnement d’un tel dispositif est expliquée à l’aide d’une comparaison entre un bolomètre conventionnel et un bolomètre supraconducteur. Des concepts comme la sensibilité d’un détecteur, la conductance thermique et la méthode d’utilisation sont présentés. Les étapes du procédé de fabrication sont ensuite explicitées dans les moindres détails. Finalement, les propriétés électroniques d’un tel micro-bolomètre sont analysées à l’aide de la courbe caractéristique courant-tension, de la courbe de transition supraconductrice en température et de dfférentes mesures en réflectométrie. La puissance équivalente de bruit (NEP) mesurée est de l’ordre de 10[indice supérieur −17] W/√Hz et le temps caractéristique de détection est de 1.43 μs. Le dispositif présenté dans ce mémoire a un avantage important par rapport aux bolomètres supraconducteurs généralement utilisés : il ne nécessite pas de courant de polarisation continu pour le mettre en fonctionnement. Ceci peut résulter en divers avantages technologiques.
Resumo:
Ce projet de recherche mené en collaboration industrielle avec St-Jean Photochimie Inc. / PCAS Canada vise le développement et la caractérisation de dérivés dipyrrométhène pour des applications dans le domaine du photovoltaïque. La quête du récoltage des photons se situant dans le proche-infrarouge a été au centre des modifications structurales explorées afin d’augmenter l’efficacité de conversion des cellules solaires de type organique et à pigments photosensibles. Trois familles de composés intégrant le motif dipyrrométhène ont été synthétisées et caractérisées du point de vue spectroscopique, électrochimique, structural ainsi que par modélisation moléculaire afin d’établir des relations structures-propriétés. La première famille comporte six azadipyrrométhènes au potentiel de coordination tétradentate sur des centres métalliques. Le développement d’une nouvelle voie synthétique asymétrique combinée à l’utilisation d’une voie symétrique classique ont permis d’obtenir l’ensemble des combinaisons de substituants possibles sur les aryles proximaux incluant les noyaux 2-hydroxyphényle, 2-méthoxyphényle et 2- pyridyle. La modulation du maximum d’absorption dans le rouge a pu être faite entre 598 et 619 nm. De même, la présence de groupements méthoxyle ou hydroxyle augmente l’absorption dans le violet (~410 nm) tel que démontré par modélisation. La caractérisation électrochimique a montré que les dérivés tétradentates étaient en général moins stables aux processus redox que leur contre-parti bidentate. La deuxième famille comporte dix dérivés BODIPY fusionnés de façon asymétrique en position [b]. L’aryle proximal a été modifié de façon systématique afin de mieux comprendre l’impact des substituents riches en électron et de la fusion de cycles aromatiques. De plus, ces dérivés ont été mis en relation avec une vaste série de composés analogues. Les résultats empiriques ont montré que les propriétés optoélectroniques de la plateforme sont régies par le degré de communication électronique entre l’aryle proximal, le pyrrole sur lequel il est attaché et le noyau indolique adjacent à ce dernier. Les maximums d’absorption dans le rouge sont modulables entre 547 et 628 nm et la fluorescence des composés se situe dans le proche- infrarouge. L’un des composé s’est révélé souhaitable pour une utilisation en photovoltaïque ainsi qu’à titre de sonde à pH. La troisième famille comporte cinq complexes neutres de RuII basés sur des polypyridines et portant un ligand azadipyrrométhène cyclométalé. Les composés ont montré une forte absorption de photons dans la région de 600 à 800 nm (rouge à proche- infrarouge) et qui a pu être étendue au-delà de 1100 nm dans le cas des dérivés portant un ligand terpyridine. L’analyse des propriétés optoélectroniques de façon empirique et théorique a montré un impact significatif de la cyclométalation et ouvert la voie pour leur étude en tant que photosensibilisateurs en OPV et en DSSC. La capacité d’un des complexes à photo-injecter un électron dans la bande de conduction du semi-conducteur TiO2 a été démontré en collaboration avec le groupe du Pr Gerald J. Meyer à University of North Carolina at Chapel Hill, premier pas vers une utilisation dans les cellules solaires à pigments photosensibles. La stabilité des complexes en solution s’est toutefois avérée problématique et des pistes de solutions sont suggérées basées sur les connaissances acquises dans le cadre de cette thèse.
Resumo:
La compréhension des interrelations entre la microstructure et les processus électroniques dans les polymères semi-conducteurs est d’une importance primordiale pour leur utilisation dans des hétérostructures volumiques. Dans cette thèse de doctorat, deux systémes diffèrents sont étudiés ; chacun de ces systèmes représente une approche diffèrente pour optimiser les matériaux en termes de leur microstructure et de leur capacité à se mettre en ordre au niveau moléculaire. Dans le premier système, j’ai effectué une analyse complète des principes de fonctionnement d’une cellule photovoltaïque hybride à base des nanocristaux d’oxyde de zinc (ZnO) et du poly (3-hexylthiophène) (P3HT) par absorption photoinduite en régime quasi-stationnaire (PIA) et la spectroscopie PIA en pompage modulé dépendant de la fréquence. L’interface entre le donneur (le polymère P3HT) et l’accepteur (les nanoparticules de ZnO), où la génération de charges se produit, joue un rôle important dans la performance des cellules photovoltaïques hybrides. Pour améliorer le mécanisme de génération de charges du P3H: ZnO, il est indispensable de modifier l’interface entre ses constituants. Nous avons démontré que la modification d’interface moléculaire avec cis-bis (4, 40 - dicarboxy-2, 20bipyridine) ruthénium (II) (N3-dye) et a-Sexithiophen-2 yl-phosphonique (6TP) a améliorée le photocourant et la performance dans les cellules P3HT: ZnO. Le 6TP et le N3 s’attachent à l’interface du ZnO, en augmentant ainsi l’aire effective de la surface donneur :accepteur, ce qui contribue à une séparation de charge accrue. De plus, le 6TP et le N3 réduisent la densité de pièges dans le ZnO, ce qui réduit le taux de recombinaison des paires de charges. Dans la deuxième partie, jai introduit une matrice hôte polymérique de polystyréne à masse molaire ulra-élevée, qui se comporte comme un solide pour piéger et protéger une solution de poly [2-méthoxy, 5- (2´-éthyl-hexoxy) -1,4-phénylènevinylène- PPV] (MEHPPV) pour utilisation dans des dispositifs optoèlectroniques quantiques. Des travaux antérieurs ont montré que MEH-PPV en solution subit une transition de conformation, d’une conformation enroulé à haute température (phase bleue) à une conformation de chaîne étendue à basse température (phase rouge). La conformation de la chaîne étendue de la solution MEH-PPV favorise les caractéristiques nécessaires à l’amélioration des dispositifs optoélectroniques quantiques, mais la solution ne peut pas être incorporées dans le dispositif. J’ai démontré que la caractéristique de la phase rouge du MEH-PPV en solution se maintient dans une matrice hôte polymérique de polystyrène transformé de masse molaire très élevée, qui se comporte comme un solide (gel de MEH-PPV/UHMW PS), par le biais de la spectroscopie de photoluminescence (PL) dépendant de la température (de 290K à 80 K). La phase rouge du gel MEH-PPV/UHMW PS se manifeste par des largeurs de raie étroites et une intensité augmentée de la transition 0-0 de la progression vibronique dans le spectre de PL ainsi qu’un petit décalage de Stokes entre la PL et le spectre d’absorption à basse température. Ces approches démontrent que la manipulation de la microstructure et des propriétés électroniques des polymères semi-conducteurs ont un impact direct sur la performance de dispositifs pour leurs développements technologiques continus.
Resumo:
Ce congrès était organisé conjointement par les deux grandes associations de développement de l'aquaculture dans le monde: la World Aquaculture Society (WAS, 2300 membres) et la European Aquaculture Society (EAS, 550 membres). Le précédent s'était tenu à Nice, en mai 2000. Il a rassemblé pendant 5 jours plus de 3000 chercheurs et responsables institutionnels de 95 nationalités. Environ 600 communications orales étaient réparties sur 67 sessions suivant un système de 11 salles en parallèle. Entre les salles de conférence étaient présentés les panneaux des 460 posters. Sur le site, l'exposition commerciale accueillait 135 entreprises et organismes; elle a reçu la visite d'environ 2000 visiteurs dont la moitié d'Italiens (source: EAS). Le thème général du congrès était le lien entre la tradition et la technologie. L'objectif était de montrer que les technologies, dont l'image est ambivalente, constituent un outil remarquable de développement de l'aquaculture, y compris en tenant compte des contraintes de durabilité. En effet, les attentes du citoyen, comme du consommateur, restent centrées autour des notions de qualité, sécurité alimentaire, bien-être et santé animale. Les travaux portaient sur les disciplines classiques de l'aquaculture (nutrition, physiologie, génétique, etc) et leur relation avec les biotechnologies. Il faut souligner l'émergence de thèmes de plus en plus liés la démonstration que l'aquaculture peut s'intégrer dans détruire (capacité de charge d'un écosystème, animaux échappés, etc) et à la perception de la société (perception du consommateur, aquaculture et société, position des ONG écologistes, etc). L'U.E. était très présente avec 5 représentants et une implication marquée dans de plusieurs sessions. Sous différentes formes, ses représentants ont rappelé la volonté de l'UE de continuer à soutenir l'aquaculture, avec l'objectif de poursuivre le développement de ce secteur (4 % de croissance moyenne par an). L'aquaculture devrait générer 8 à 10 000 emplois nouveaux sur les 15 prochaines années, notamment dans la conchyliculture et la pisciculture marine au large avec comme mot clef l'intégration dans l'environnement, dans le tissu socio-économique côtier et dans l'imaginaire des gens, touristes, consommateurs, élus, etc. Ce congrès à vocation mondiale a attiré des représentants de régions habituellement peu représentées comme le Moyen Orient et la Chine, présente à de nombreuses sessions. Il a été aussi le lieu de multiples réunions satellites impliquant presque toujours des chercheurs français: grands programmes européens en cours comme SeaFood+, ASEM (coop. Europe - Asie) ou Consensus, assemblée générale de l'EAS, groupe de travail de l'UICN, etc. Ce type de réunion confirme l'importance des contacts personnels directs pour 1. Evaluer les grandes tendances mondiales du secteur 2. Etablir des contacts directs avec des chercheurs seniors des grandes équipes de recherche et des décideurs au niveau européen et extra-européen 3. Tester des idées et des projets de collaboration et de partenariat Il constitue un forum exceptionnel de diffusion de connaissances, d'informations et de messages. Il offre un espace de perception et de reconnaissance d'Ifremer par de nombreux acteurs de la communauté de recherche en aquaculture. Grâce à la variété thématique des sessions où des chercheurs d'Ifremer sont actifs, l'institut renforce sa notoriété notamment dans la dimension pluridisciplinaire. Cette capacité d'ensemblier est la qualité la plus demandée dans les conclusions d'ateliers et la plus rare dans les instituts présents. Le congrès révèle bien l'évolution de l'aquaculture mondiale: il y a 10 ans, la production de masse était au Sud et la technologie et les marchés au Nord (USA, Europe, Japon). Aujourd'hui, la progression économique et scientifique rapide des pays du Sud, surtout en Asie, crée des marchés locaux .solvables pour l'aquaculture (Chine, Inde) et fait émerger une capacité de recherche « de masse». Cette situation exige que la recherche occidentale évolue pour rester compétitive. Pour préserver un secteur important, qui concourt à la sécurité alimentaire en protéines de manière croissante (4% par an, record de toutes les productions alimentaires), la recherche européenne en aquaculture doit maintenir son effort afin de garder une longueur d'avance, surtout dans les secteurs qui seront vitaux dans la décennie: relations avec l'environnement naturel (durabilité dont la maîtrise des coûts énergétiques), qualité des produits, sécurité alimentaire, intégration socio-économique dans des espaces de plus en plus convoités, maîtrise de l'image de l'espèce « cultivée» (industrielle mais contrôlée) par rapport à l'image de l'espèce « sauvage» (naturelle mais polluée et surexploitée). En conséquence, l'UE conserve tout son potentiel de développement car l'essentiel de la valeur ajoutée sera de moins en moins dans la production en quantité mais dans sa maîtrise de la qualité. Cette évolution donne toute sa valeur à la recherche menée par Ifremer et ce d'autant plus que l'institut sera capable d'anticiper les besoins et les attentes des entreprises, des consommateurs, des associations comme des organisations internationales. Dans cette vision, réactivité, capacité d'ensemblier et réflexion prospective sont les qualités à développer pour que l'lfremer puisse donner toute sa mesure notamment dans la recherche en aquaculture. Ces enjeux sont à l'échelle internationale et Ifremer fait partie du petit nombre d'instituts capables de les traiter en large partenariat, en accord complet avec la politique souhaitée par l'UE
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.