987 resultados para WEC optimum


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Microwave digestions of mercury in Standards Reference Material (SRM) coal samples with nitric acid and hydrogen peroxide in quartz vessels were compared with Teflon® vessel digestion by using flow injection cold vapor atomic absorption spectrometry. Teflon® vessels gave poor reproducibiUty and tended to deliver high values, while the digestion results from quartz vessel show good agreement with certificate values and better standard deviations. Trace level elements (Ag, Ba, Cd, Cr, Co, Cu, Fe, Mg, Mn, Mo, Pb, Sn, Ti, V and Zn) in used oil and residual oil samples were determined by inductively coupled plasma-optical emission spectrometry. Different microwave digestion programs were developed for each sample and most of the results are in good agreement with certified values. The disagreement with values for Ag was due to the precipitation of Ag in sample; while Sn, V and Zn values had good recoveries from the spike test, which suggests that these certified values might need to be reconsidered. Gold, silver, copper, cadmium, cobalt, nickel and zinc were determined by continuous hydride generation inductively coupled plasma-optical emission spectrometry. The performance of two sample introduction systems: MSIS™ and gas-liquid separator were compared. Under the respective optimum conditions, MSIS^"^ showed better sensitivity and lower detection limits for Ag, Cd, Cu, Co and similar values for Au, Ni and Zn to those for the gas-liquid separator.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Factors affecting the detennination of PAHs by capillary GC/MS were studied. The effect of the initial column temperature and the injection solvent on the peak areas and heights of sixteen PAHs, considered as priority pollutants, USillg crosslinked methyl silicone (DB!) and 5% diphenyl, 94% dimethyl, 1% vinyl polysiloxane (DBS) columns was examined. The possibility of using high boiling point alcohols especially butanol, pentanol, cyclopentanol, and hexanol as injection solvents was investigated. Studies were carried out to optimize the initial column temperature for each of the alcohols. It was found that the optimum initial column temperature is dependent on the solvent employed. The peak areas and heights of the PAHs are enhanced when the initial column temperature is 10-20 c above the boiling point of the solvent using DB5 column, and the same or 10 C above the boiling point of the solvent using DB1 column. Comparing the peak signals of the PAHs using the alcohols, p-xylene, n-octane, and nonane as injection solvents, hexanol gave the greatest peak areas and heights of the PAHs particularly the late-eluted peaks. The detection limits were at low pg levels, ranging from 6.0 pg for fluorene t9 83.6 pg for benzo(a)pyrene. The effect of the initial column temperature on the peak shape and the separation efficiency of the PARs was also studied using DB1 and DB5 columns. Fronting or splitting of the peaks was obseIVed at very low initial column temperature. When high initial column temperature was used, tailing of the peaks appeared. Great difference between DB! and.DB5 columns in the range of the initial column temperature in which symmetrical.peaks of PAHs can be obtained is observed. Wider ranges were shown using DB5 column. Resolution of the closely-eluted PAHs was also affected by the initial column temperature depending on the stationary phase employed. In the case of DB5, only the earlyeluted PAHs were affected; whereas, with DB1, all PAHs were affected. An analytical procedure utilizing solid phase extraction with bonded phase silica (C8) cartridges combined with GC/MS was developed to analyze PAHs in water as an alternative method to those based on the extraction with organic solvent. This simple procedure involved passing a 50 ml of spiked water sample through C8 bonded phase silica cartridges at 10 ml/min, dried by passing a gentle flow of nitrogen at 20 ml/min for 30 sec, and eluting the trapped PAHs with 500 Jll of p-xylene at 0.3 ml/min. The recoveries of PAHs were greater than 80%, with less than 10% relative standard deviations of nine determinations. No major contaminants were present that could interfere with the recognition of PAHs. It was also found that these bonded phase silica cartridges can be re-used for the extraction of PAHs from water.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Factors involved in the determination of PAHs (16 priority PAHs as an example) and PCBs (10 PCB congeners, representing 10 isomeric groups) by capillary gas chromatography coupled with mass spectrometry (GC/MS, for PAHs) and electron capture detection (GC/ECD , for PCBs) were studied, with emphasis on the effect of solvent. Having various volatilities and different polarities, solvent studied included dichloromethane, acetonitrile, hexan e, cyclohexane, isooctane, octane, nonane, dodecane, benzene, toluene, p-xylene, o-xylene, and mesitylene. Temperatures of the capillary column, the injection port, the GC/MS interface, the flow rates of carrier gas and make-up gas, and the injection volume were optimized by one factor at a time method or simplex optimization method. Under the optimized conditions, both peak height and peak area of 16 PAHs, especially the late-eluting PAHs, were significantly enhanced (1 to 500 times) by using relatively higher boiling point solvents such as p-xylene and nonane, compared with commonly used solvents like benzene and isooctane. With the improved sensitivity, detection limits of between 4.4 pg for naphthalene and 30.8 pg for benzo[g,h,i]perylene were obtained when p-xylene was used as an injection solvent. Effect of solvent on peak shape and peak intensity were found to be greatly dependent on temperature parameters, especially the initial temperature of the capillary column. The relationship between initial temperature and shape of peaks from 16 PAHs and 10 PCBs were studied and compared when toluene, p-xylene, isooctane, and nonane were used as injection solvents. If a too low initial temperature was used, fronting or split of peaks was observed. On the other hand, peak tailing occurred at a too high initial column temperature. The optimum initial temperature, at which both peak fronting and tailing were avoided and symmetrical peaks were obtained, depended on both solvents and the stationary phase of the column used. On a methyl silicone column, the alkane solvents provided wider optimum ranges of initial temperature than aromatic solvents did, for achieving well-shaped symmetrical GC peaks. On a 5% diphenyl: 1% vinyl: 94% dimethyl polysiloxane column, when the aromatic solvents were used, the optimum initial temperature ranges for solutes to form symmetrical peaks were improved to a similar degree as those when the alkanes were used as injection solvents. A mechanism, based on the properties of and possible interactions among the analyte, the injection solvent, and the stationary phase of the capillary column, was proposed to explain these observations. The effect of initial temperature on peak height and peak area of the 16 PAHs and the 10 PCBs was also studied. The optimum initial temperature was found to be dependent on the physical properties of the solvent used and the amount of the solvent injected. Generally, from the boiling point of the solvent to 10 0C above its boiling point was an optimum range of initial temperature at which cthe highest peak height and peak area were obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis introduces the Salmon Algorithm, a search meta-heuristic which can be used for a variety of combinatorial optimization problems. This algorithm is loosely based on the path finding behaviour of salmon swimming upstream to spawn. There are a number of tunable parameters in the algorithm, so experiments were conducted to find the optimum parameter settings for different search spaces. The algorithm was tested on one instance of the Traveling Salesman Problem and found to have superior performance to an Ant Colony Algorithm and a Genetic Algorithm. It was then tested on three coding theory problems - optimal edit codes, optimal Hamming distance codes, and optimal covering codes. The algorithm produced improvements on the best known values for five of six of the test cases using edit codes. It matched the best known results on four out of seven of the Hamming codes as well as three out of three of the covering codes. The results suggest the Salmon Algorithm is competitive with established guided random search techniques, and may be superior in some search spaces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The origins of the Welland County Fair date back to the founding of the County of Welland in 1852. A provincial charter was issued in 1853 to create the Welland County Agricultural Society that was to operate the Fair. In 1970, the Welland County Fair became the Niagara Regional Exhibition, and the Society became known as the Niagara Regional Agriculture Society. The Society seeks to “encourage interest, promote improvements in and advance the standards of agriculture, domestic industry and rural life”. The Welland Festival of Arts was developed in 1986 in order to revitalize the town’s economy. An “outdoor art gallery” was created by painting murals on buildings that depicted the town’s heritage, a concept successfully adopted by the town of Chemainus, B.C. The first mural was completed in the summer of 1988, and by 1991 there were a total of 28 murals around the city. The endeavour proved successful: in the years that followed the creation of the Festival, two new hotels were constructed, a third was expanded, and there was an addition to the Seaway Mall to accommodate the increased tourist traffic. Optimist International is a non-profit organization that strives to “bring out the best in kids” . The first Canadian club was formed in Toronto in 1924. The Welland branch of the Optimist Club was founded in 1937. The first Welland County General Hospital opened in 1908. As the population increased, it became necessary to expand the existing facilities. Additions were made to the original structure with an East wing in 1930 and a children’s ward in 1931. However, in the 1950’s, the hospital was operating beyond optimum capacity and the need for a larger facility was clear. It was decided that a new hospital would be built, which opened in April 1960. The new hospital had 259 beds and 51 bassinets. Further additions were made in 1967 and 1978. The County of Welland was formed in 1850 when it was officially separated from Lincoln County, however, the two counties continued to operate together until 1856 when a new County building and jail for Welland County were completed. That same year, the first meeting of the Council of the Corporation of Welland County took place. The final meeting of the Council took place on December 18, 1969. The following year, the County of Welland merged with Lincoln County to form the Regional Municipality of Niagara. The Welland Mills in Thorold, Ont., was built in 1846-1847 by Jacob Keefer and is thought to have been one of the largest flour mills in Upper Canada. Ownership of the mill changed several times over the years and previous owners include the Howland family, the Hedley Shaw Milling Company and the Maple Leaf Milling Company. In 1986, the building received a heritage plaque from the Ontario Heritage Foundation, an agency of the Ontario Ministry of Culture and Recreation. At this time, the mill was no longer in operation and was being used for storage by Fraser, Inc. By 2006, the dilapidated building had been redeveloped into18 apartments and 2 floors of commercial space, while maintaining many heritage features. The building is currently known as the Welland Mills Centre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hepatitis C virus (HCV) is the causative agent of Hepatitis C, a serious global health problem which results in liver cirrhosis and hepatocellular carcinoma. Currently there is no effective treatment or vaccine against the virus. Therefore, development of a therapeutic vaccine is of paramount importance. In this project, three alternative approaches were used to control HCV including a DNA vaccine, a recombinant viral vaccine and RNA interference. The first approach was to test the effect of different promoters on the efficacy of a DNA vaccine against HCV. Plasmids encoding HCV-NS3 and E1 antigens were designed under three different promoters, adenoviral E1A, MLP, and CMV ie. The promoter effect on the antigen expression in 293 cells, as well as on the antibody level in immunized BALB/c mice, was evaluated. The results showed that the antigens were successfully expressed from all vectors. The CMV ie promoter induced the highest antigen expression and the highest antibody level. Second, the efficiency of a recombinant adenovirus vaccine encoding HCV-NS3 was compared to that of a HCV-NS3 plasmid vaccine. The results showed that the recombinant adenovirus vaccine induced higher antibody levels as compared to the plasmid vaccine. The relationship between the immune response and miRNA was also evaluated. The levels of mir-181, mir-155, mir-21 and mir-296 were quantified in the sera of immunized animals. mir-181 and mir-21 were found to be upregulated in animals injected with adenoviral vectors. Third, two recombinant adenoviruses encoding siRNAs targeting both the helicase and protease parts of the NS3 region were tested for their ability to inhibit NS3 expression. The results showed that the siRNA against protease was more effective in silencing the HCV-NS3 gene in a HCV replicon cell line. This result confirmed the efficiency of adenovirus for siRNA delivery. These results confirmed that CMV ie is optimum promoter for immune response induction. Adenovirus was shown to be an effective delivery vector for antigens or siRNAs. In addition, miRNAs were proved to be involved in the regulation of immune response.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Population-based metaheuristics, such as particle swarm optimization (PSO), have been employed to solve many real-world optimization problems. Although it is of- ten sufficient to find a single solution to these problems, there does exist those cases where identifying multiple, diverse solutions can be beneficial or even required. Some of these problems are further complicated by a change in their objective function over time. This type of optimization is referred to as dynamic, multi-modal optimization. Algorithms which exploit multiple optima in a search space are identified as niching algorithms. Although numerous dynamic, niching algorithms have been developed, their performance is often measured solely on their ability to find a single, global optimum. Furthermore, the comparisons often use synthetic benchmarks whose landscape characteristics are generally limited and unknown. This thesis provides a landscape analysis of the dynamic benchmark functions commonly developed for multi-modal optimization. The benchmark analysis results reveal that the mechanisms responsible for dynamism in the current dynamic bench- marks do not significantly affect landscape features, thus suggesting a lack of representation for problems whose landscape features vary over time. This analysis is used in a comparison of current niching algorithms to identify the effects that specific landscape features have on niching performance. Two performance metrics are proposed to measure both the scalability and accuracy of the niching algorithms. The algorithm comparison results demonstrate the algorithms best suited for a variety of dynamic environments. This comparison also examines each of the algorithms in terms of their niching behaviours and analyzing the range and trade-off between scalability and accuracy when tuning the algorithms respective parameters. These results contribute to the understanding of current niching techniques as well as the problem features that ultimately dictate their success.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper studies monetary policy in an economy where the central banker's preferences are asymmetric around optimal inflation. In particular, positive deviations from the optimum can be weighted more, or less, severely than negative deviations in the policy maker's loss function. It is shown that under asymmetric preferences, uncertainty can induce a prudent behavior on the part of the central banker. Since the prudence motive can be large enough to override the inflation bias, optimal monetary policy could be implemented even in the absence of rules, reputation, or contractual mechanisms. For certain parameter values, a deflationary bias can arise in equilibrium.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper studies the impact of banks' liability for environmental damages caused by their borrowers. Laws or court decisions that declare banks liable for environmental damages have two objectives : (1) finding someone to pay for the damages and (2) exerting a pressure on a firm's stakeholders to incite them to invest in environmental risk prevention. We study the effect that such legal decisions can have on financing relationships and especially on the incentives to reduce environmental risk in an environment where banks cannot commit to refinance the firm in all circumstances. Following an environmental accident, liable banks more readily agree to refinance the firm. We then show that bank liability effectively makes refinancing more attractive to banks, therefore improving the firm's risk-sharing possibilities. Consequently, the firm's incentives to invest in environmental risk reduction are weakened compared to the (bank) no-liability case. We also show that, when banks are liable, the firm invests at the full-commitment optimal level of risk reduction investment. If there are some externalities such that some damages cannot be accounted for, the socially efficient level of investment is greater than the privately optimal one. in that case, making banks non-liable can be socially desirable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude porte sur l’évaluation d’une méthode d’acquisition de la solution de sol présente à l’interface sol-racine, dans la rhizosphère. Cette interface constitue le lieu privilégié de prise en charge par les plantes des contaminants, tels que les métaux traces. Comme les plantes acquièrent ces éléments à partir de la phase liquide, la solution de sol de la rhizosphère est une composante clé pour déterminer la fraction de métaux traces biodisponibles. La microlysimétrie est la méthode in situ la plus appropriée pour aborder les difficultés liées à l’échelle microscopique de la rhizosphère. Ainsi, dans les études sur la biodisponibilité des métaux traces au niveau de la rhizosphère, les microlysimètres (Rhizon©) gagnent en popularité sans, toutefois, avoir fait l’objet d’études exhaustives. L’objectif de cette étude est donc d’évaluer la capacité de ces microlysimètres à préserver l’intégrité chimique de la solution, tout en optimisant leur utilisation. Pour ce faire, les microlysimètres ont été soumis à une série d’expériences en présence de solutions et de sols, où la quantité de solution prélevée et le comportement des métaux traces (Cd, Cu, Ni, Pb, Zn) ont été étudiés. Les résultats montrent que les microlysimètres fonctionnent de façon optimale lorsque le contenu en eau du sol est au-dessus de la capacité au champ et lorsqu’il y a peu de matière organique et d’argile. Les sols sableux ayant un faible contenu en C organique reproduisent mieux le volume prélevé et la solution sous la capacité au champ peut être récoltée. L’utilisation des microlysimètres dans ces sols est donc optimale. Dans les essais en solution, les microlysimètres ont atteint un équilibre avec la solution après 10 h de prélèvement. En respectant ce délai et les conditions optimales préalablement établies (pH acide et COD élevé), les microlysimètres préservent la composition chimique de la solution. Dans les essais en sol, cet équilibre n’a pas été atteint après dix jours et huit prélèvements. Le contenu en matière organique et l’activité microbienne semblent responsables de la modification des concentrations en métaux au cours de ces prélèvements, notamment, dans l’horizon FH où les microlysimètres performent très mal. En revanche, dans l’horizon B, les concentrations tendent à se stabiliser vers la fin de la série de prélèvements en se rapprochant des valeurs de référence. Bien que des valeurs plus élevées s’observent pour les microlysimètres, leurs concentrations en métaux sont comparables à celles des méthodes de référence (extrait à l’eau, lysimètres de terrain avec et sans tension). En somme, les microlysimètres se comportent généralement mieux dans l’horizon B. Même si leur utilisation est plus optimale dans un sol sableux, cet horizon est privilégié pour de futures études sur le terrain avec les microlysimètres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thérapie cellulaire est une avenue pleine de promesses pour la régénération myocardique, par le remplacement du tissu nécrosé, ou en prévenant l'apoptose du myocarde survivant, ou encore par l'amélioration de la néovascularisation. Les cellules souches de la moelle osseuse (CSMO) expriment des marqueurs cardiaques in vitro quand elles sont exposées à des inducteurs. Pour cette raison, elles ont été utilisées dans la thérapie cellulaire de l'infarctus au myocarde dans des études pre-cliniques et cliniques. Récemment, il a été soulevé de possibles effets bénéfiques de l'ocytocine (OT) lors d’infarctus. Ainsi, l’OT est un inducteur de différenciation cardiaque des cellules souches embryonnaires, et cette différenciation est véhiculée par la voie de signalisation du monoxyde d’azote (NO)-guanylyl cyclase soluble. Toutefois, des données pharmacocinétiques de l’OT lui attribue un profil non linéaire et celui-ci pourrait expliquer les effets pharmacodynamiques controversés, rapportés dans la lttérature. Les objectifs de ce programme doctoral étaient les suivants : 1) Caractériser le profil pharmacocinétique de différents schémas posologiques d'OT chez le porc, en développant une modélisation pharmacocinétique / pharmacodynamique plus adaptée à intégrer les effets biologiques (rénaux, cardiovasculaires) observés. 2) Isoler, différencier et trouver le temps optimal d’induction de la différenciation pour les CSMO porcines (CSMOp), sur la base de l'expression des facteurs de transcription et des protéines structurales cardiaques retrouvées aux différents passages. 3) Induire et quantifier la différenciation cardiaque par l’OT sur les CSMOp. 4) Vérifier le rôle du NO dans cette différenciation cardiaque sur les CSMOp. Nous avons constaté que le profil pharmacocinétique de l’OT est mieux expliqué par le modèle connu comme target-mediated drug disposition (TMDD), parce que la durée du séjour de l’OT dans l’organisme dépend de sa capacité de liaison à son récepteur, ainsi que de son élimination (métabolisme). D'ailleurs, nous avons constaté que la différenciation cardiomyogénique des CSMOp médiée par l’OT devrait être induite pendant les premiers passages, parce que le nombre de passages modifie le profile phénotypique des CSMOp, ainsi que leur potentiel de différenciation. Nous avons observé que l’OT est un inducteur de la différenciation cardiomyogénique des CSMOp, parce que les cellules induites par l’OT expriment des marqueurs cardiaques, et l'expression de protéines cardiaques spécifiques a été plus abondante dans les cellules traitées à l’OT en comparaison aux cellules traitées avec la 5-azacytidine, qui a été largement utilisée comme inducteur de différenciation cardiaque des cellules souches adultes. Aussi, l’OT a causé la prolifération des CMSOp. Finalement, nous avons observé que l'inhibition de la voie de signalisation du NO affecte de manière significative l'expression des protéines cardiaques spécifiques. En conclusion, ces études précisent un potentiel certain de l’OT dans le cadre de la thérapie cellulaire cardiomyogénique à base de cellules souches adultes, mais soulignent que son utilisation requerra de la prudence et un approfondissement des connaissances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal