925 resultados para Four Level Frame Work
Resumo:
The paper addresses the concept of multicointegration in panel data frame- work. The proposal builds upon the panel data cointegration procedures developed in Pedroni (2004), for which we compute the moments of the parametric statistics. When individuals are either cross-section independent or cross-section dependence can be re- moved by cross-section demeaning, our approach can be applied to the wider framework of mixed I(2) and I(1) stochastic processes analysis. The paper also deals with the issue of cross-section dependence using approximate common factor models. Finite sample performance is investigated through Monte Carlo simulations. Finally, we illustrate the use of the procedure investigating inventories, sales and production relationship for a panel of US industries.
Resumo:
The paper addresses the concept of multicointegration in panel data frame- work. The proposal builds upon the panel data cointegration procedures developed in Pedroni (2004), for which we compute the moments of the parametric statistics. When individuals are either cross-section independent or cross-section dependence can be re- moved by cross-section demeaning, our approach can be applied to the wider framework of mixed I(2) and I(1) stochastic processes analysis. The paper also deals with the issue of cross-section dependence using approximate common factor models. Finite sample performance is investigated through Monte Carlo simulations. Finally, we illustrate the use of the procedure investigating inventories, sales and production relationship for a panel of US industries.
Resumo:
The loss of biodiversity has become a matter of urgent concern and a better understanding of local drivers is crucial for conservation. Although environmental heterogeneity is recognized as an important determinant of biodiversity, this has rarely been tested using field data at management scale. We propose and provide evidence for the simple hypothesis that local species diversity is related to spatial environmental heterogeneity. Species partition the environment into habitats. Biodiversity is therefore expected to be influenced by two aspects of spatial heterogeneity: 1) the variability of environmental conditions, which will affect the number of types of habitat, and 2) the spatial configuration of habitats, which will affect the rates of ecological processes, such as dispersal or competition. Earlier, simulation experiments predicted that both aspects of heterogeneity will influence plant species richness at a particular site. For the first time, these predictions were tested for plant communities using field data, which we collected in a wooded pasture in the Swiss Jura mountains using a four-level hierarchical sampling design. Richness generally increased with increasing environmental variability and "roughness" (i.e. decreasing spatial aggregation). Effects occurred at all scales, but the nature of the effect changed with scale, suggesting a change in the underlying mechanisms, which will need to be taken into account if scaling up to larger landscapes. Although we found significant effects of environmental heterogeneity, other factors such as history could also be important determinants. If a relationship between environmental heterogeneity and species richness can be shown to be general, recently available high-resolution environmental data can be used to complement the assessment of patterns of local richness and improve the prediction of the effects of land use change based on mean site conditions or land use history.
Resumo:
Resumen: El artículo analiza los problemas de accesibilidad que actualmente presentan los artículos científicos en soporte digital. El estudio se centra en los aspectos de facilidad de uso del contenido de los documentos digitales según la forma en que se publiquen, sin entrar en el estudio de los distintos sistemas de recuperación. Se analizan los dos formatos más utilizados para la publicación de artículos científicos en soporte digital: HTML y PDF, estudiando el desempeño lector en relación a la presencia de sumarios o de tablas internas o vinculadas. El estudio se ha realizado con dos colectivos: 30 sujetos ciegos, usuarios de Jaws, contactados gracias a la mediación de la Fundación ONCE, y 30 sujetos no ciegos, profesores del Departamento de Biblioteconomía y Documentación de la Universidad de Barcelona. El estudio muestra que la localización de los datos contenidos en tablas se ve facilitada en documentos HTML por la inclusión de un sumario que vincule con la tabla, así como la inclusión de tablas completas en el cuerpo del documento HTML facilita la actividad lectora por parte de los usuarios ciegos. A nivel metodológico la presente investigación aporta dos novedades relevantes respecto a la literatura existente en los estudios de usabilidad con ciegos: estudia la usabilidad del formato PDF y es un test de usabilidad cuantitativo; este último hecho dificulta su comparación con la mayoría de artículos publicados. Abstract: This paper analyses the problems of accessibility posed by scientific articles published in digital format, focusing on the ease of use of their content with respect to the form in which they are published (irrespective of the recovery system). The two most widely used formats for the publication of scientific articles in digital format, HTML and PDF, are analysed, examining reader performance in relation to the presence of contents lists or internal or linked tables. The study involved two groups: 30 blind subjects, all JAWS users, contacted through the ONCE Foundation, and 30 sighted subjects, lecturers in the Department of Librarianship and Documentation of the University of Barcelona. The results shows the location of data in tables is easier in HTML documents through the inclusion of a contents list linked to these tables. Further, the inclusion of complete tables in the body of HTML document facilitates the reading activity of blind users. At the methodological level, this work reports two novelties with respect to the existing literature on usability by blind people: it examines the usability of the PDF format, and discusses a quantitative usability test. The latter hinders comparison with the majority of published articles.
Resumo:
Summary The mechanisms regulating the protective immune T-cell responses generated against the persistent Epstein-Barr virus (EBV) and Cytomegaloviru_s (CNIV) remain poorly understood. We analyzed the dynamics of cellular differentiation and T-cell receptor (TCR) clonotype selection of EBV- and CMV-specific T-cells in healthy adults and melanoma patients. While these responses could be subdivided into four T lymphocyte populations, théir proportions varied between EBV and CMV specific responses. Phenotypic and TCR clonotypic analyses supported a linear model of differentiation from the early-differentiated (EM/CD28pos) subset to the late-differentiatdc (EMRA/CD28neg) subset. In-depth clonal composition analyses revealed TCR repertoires, which were highly restricted for CMV- and relatively diverse for EBV-specific cells. Virtually all virus-specific clonotypes identified in the EMRA/CD28neg subset were also found within the pool of less differentiated "memory" cells. However, striking differences in the patterns of dominance were observed among these subsets, as some clonotypes were selected with differentiation, while others were not. Latedifferentiated CMV-specific clonotypes were mostly characterized by TCRs with lower dependency on CD8 co-receptor interaction. Yet all clonotypes displayed similar functional avidities, suggesting a compensatory role of CD8 in the clonotypes of lower TCR avidity. Importantly, clonotype selection and composition of each virus-specific subset upon differentiation was highly preserved over time, with the presence of the same dominant clonotypes at specific differentiation stages within a period of four years. This work was extended to the study of EBV-specific CD8 T-cell responses in melanoma patients undergoing transient lymphodepletion, followed by adoptive cell transfer (ACT) and immune reconstitution for thè treatment of their tumors. Following treatment regimen, we first observed an increase in the proportion of virus-specific T-cells in 3 out of 5 patients, accompanied by a more differentiated phenotype (EMRA/CD28neg), compared to specific cells of healthy individuals. Yet, similarly to healthy donors, clonotype selection and composition of virus-specific T-cells varied along the pathway of cellular differentiation, with some clonotypes being selected with differentiation, while others were not. Intriguingly, no novel clonotypes emerged following transient immuno-suppression and homeostatic proliferation, finding which was subsequently explained by the absence of EBV reactivation. The distribution of each clonotype within early- and late-differentiated T-cell subsets in 4 out 5 patients was highly stable over time, with those clonotypes initially found before the start of treatment that were again present at specific differentiation stages after transient lymphodepletion and ACT. These findings uncover novel features of the highly sophisticated control of steady state protective T-cell immune responses against persistent herpesviruses in healthy adults. Furthermore they reveal the striking stability of these responses in terms of clonotype selection and composition with T-cell differentiation even in situations where the immune system has been. challenged. Résumé : Les mécanismes qui régulent les réponses immunitaires de type protectrices, générées contre les virus chroniquement persistants tels que l'Epstein-Barr (EBV) ou le Cytomegalo (CMV) restent largement inconnus. Nous avons analysé la différenciation des lymphocytes T spécifiques pour ces virus, ainsi que la composition des clonotypes T (par leur récepteur T) chez les donneurs sains. Les réponses immunes peuvent être classifiées en quatre souspopulations majeures de lymphocytes T, cependant, leur proportion varie entre les réponses spécifiques contre EBV ou CMV. Ces analyses soutiennent le modèle linéaire de différenciation, à partir de la population non différenciée (EM/CD28pos) vers la population plus différenciée (ENIIZA/CD28neg). De plus, nos données sur la composition clonale de ces cellules T spécifiques ont révélé des répertoires TCR restreints, pour la réponse anti-CMV, et relativement diversifiés contre EBV. Tous les clonotypes spécifiques de ces virus identifiés dans la sous-population différenciée EMRA/CD28neg, ont également été retrouvés dans la population de cellules "mémoires". Toutefois, de fortes différences ont été observées dans les schémas de domination de ces sous-populations, en effet, certains clonotypes étaient sélectionnés avec la différenciation, alors que d'autres ne l'étaient pas. Nous avons également démontré que ces clonotypes différenciés et spécifiques pour le CMV sont caractérisés par des TCRs à faible dépendance en regard de la coopération du corécepteur CD8. Néanmoins, tous les clonotypes affichent une avidité fonctionnelle similaire, suggérant un rôle compensatoire du CD8, dans le cas des clonotypes avec une faible avidité du TCR En définitive, la composition et la sélection des clonotypes spécifiques pour chaque virus et pour chaque sous-population suit un schéma de différenciation hautement conservé au cours du temps, avec la présence de ces mêmes clonotypes au même stade de différenciation sur une période de quatre ans. Ce travail a été étendu à l'étude des réponses T CD8+ spécifiques pour le virus EBV chez les patients atteints de mélanome et recevant dans le cadre du traitement de leurs tumeurs une lymphodéplétion transitoire, suivie d'un transfert adoptif de cellules et d'une reconstitution immunitaire. Au cours de cette thérapie, nous avons en premier lieu observé pour 3 des 5 patients une augmentation de la proportion de cellules T spécifiques pour le virus, accompagné d'un phénotype plus différencié (EMRA/CD28neg), et ceci comparativement à des cellules spécifiques d'individus sains. Pourtant, comme nous l'avons observé chez les donneurs sains, la sélection et la composition des clonotypes T spécifiques varient tout au long de la différenciation cellulaire, avec certains clonotypes sélectionnés et d'autres qui ne le sont pas. Étonnamment, aucun nouveau clonotype n'a émergé après l'immuno-suppression transitoire et la prolifération homéostatique. Cette observation trouve son explication par une absence de réactivation du virus EBV chez ces patients, et ce malgré leur traitement. De plus, la distribution de chaque clonotype parmi ces sous-populations non-différenciées et différenciées reste stable au cours du traitement. Ainsi, les mêmes clonotypes initialement identifiés avant le début du traitement sont présents aux mêmes stades de différenciation après la lymphodéplétion et la prolifération homéostatique. Ces résultats ont permis d'identifier de nouveaux mécanismes impliqués dans la régulation hautement «sophistiquée » des réponses immunitaires T contre les virus persistants EBV et CMV chez les donneurs sains. En particulier, ils révèlent la grande stabilité de ces réponses en termes de sélection et de composition des clonotypes avec la différenciation cellulaire, et ce dans les situations chroniques, ainsi que dans les situations dans lesquelles le système immunitaire a été profondément perturbé.
Resumo:
RÉSUMÉ Les protéines d'ancrage de la protéine kinase A (AKAPs) constituent une grande famille de protéines qui ciblent la protéine kinase A (PKA) à proximité de ses substrats physiologiques pour assurer leur régulation. Une nouvelle protéine de cette famille, appelée AKAP-Lbc, a été récemment caractérisée et fonctionne comme un facteur d'échange de nucléotides guanine (GEF) pour la petite GTPase Rho. AKAP-Lbc est régulée par différents signaux qui activent et désactivent son activité Rho-GEF. Son activation est assurée par la sous-unité alpha de la protéine G hétérotrimérique G12, tandis que son inhibition dépend de son interaction avec la PKA et 14-3-3. AKAP-Lbc est principalement exprimée dans le coeur et pourrait réguler des processus importants tels que l'hypertrophie et la différenciation des cardiomyocytes. Ainsi, il est crucial d'élucider les mécanismes moléculaires impliqués dans la régulation de son activité Rho-GEF. Le but général de ce travail de thèse est la caractérisation de deux nouveaux mécanismes impliqués dans la régulation de l'activité de AKAP-Lbc. Le premier mécanisme consiste en la régulation de l'activité de AKAP-Lbc par son homo-oligomérisation. Mes travaux montrent que l'homo-oligomérisation maintient AKAP-Lbc inactive, dans une conformation permettant à la PKA ancrée et à 14-3-3 d'exercer leur effet inhibiteur sur l'activité de AKAP-Lbc. Le second mécanisme concerne la régulation de l'activité de AKAP-Lbc via une nouvelle interaction entre AKAP-Lbc et la protéine LC3. LC3 joue un rôle crucial dans l'autophagie, un processus cellulaire qui adresse les protéines cytoplasmiques au lysosome pour leur dégradation. Ce mécanisme est particulièrement important pour le survie des cardiomyocytes durant les périodes d'absence de nutriments. Mes travaux mettent en évidence que LC3 inhibe l'activité Rho-GEF de AKAP-Lbc, ce qui suggère que, au-delà son rôle bien établi dans l'autophagie, LC3 participerait à la régulation de la signalisation de Rho. Prises ensembles, ces études contribuent à comprendre comment le complexe de signalisation formé par AKAP-Lbc régule la signalisation de Rho dans les cellules. Au-delà de leur intérêt au niveau biochimique, ces travaux pourraient aussi contribuer à élucider les réseaux de signalisation qui régulent des phénomènes physiologiques dans le coeur. ABSTRACT A-kinase anchoring proteins (AKAPs) are a group of functionally related proteins, which target the cAMP dependent protein kinase A (PKA) in close proximity to its physiological substrates for ensuring their regulation. A novel PKA anchoring protein, termed AKAP-Lbc, has been recently characterized, which also functions as a guanine nucleotide exchange factor (GEF) for the small GTPase Rho. AKAP-Lbc is regulated in a bi-directional manner by signals which activate or deactivate its Rho-GEF activity. Activation is mediated by the alpha subunit of the heterotrimeric G protein G12, whereas inhibition occurs following its interaction with PKA and 14-3-3. AKAP-Lbc is predominantly expressed in the heart and might regulate important processes such as hypertrophy and differentiation of cardiomyocytes. Therefore ít is crucial to elucidate the molecular mechanisms involved in the regulation of the Rho-GEF activity of AKAP-Lbc. The general aim of the present thesis work is the characterization of two novel molecular mechanisms involved in the regulation of the Rho-GEF activity of AKAP-Lbc. The first mechanism consists of the. regulation of AKAP-Lbc activity through its homooligomerization. I report here that homo-oligomerization maintains AKAP-Lbc inactive, under a conformation suitable for ensuring the inhibitory effect of anchored PKA and 14-33 on AKAP-Lbc activity. The second mechanism concerns the regulation of AKAP-Lbc activity through a novel interaction between AKAP-Lbc and ubiquitin-like protein LC3. LC3 is a key mediator of autophagy, which is a cellular process that targets cytosolic proteins to the lysosome for degradation. This process is particularly important for cardiomyocyte survival during conditions of nutrient starvation. Here, I show that LC3 is a negative regulator of the Rho-GEF activity of AKAP-Lbc, which suggests that, beyond its well established role in autophagy, LC3 can participate in the regulation of Rho signaling in cells. Overall, these findings contribute to understand how the AKAP-Lbc signaling complex can regulate the Rho signaling in cells. Beyond its interest at the biochemical level, this work might also contribute to elucidate the signaling network that regulate physiological events in the heart.
Resumo:
Convective transport, both pure and combined with diffusion and reaction, can be observed in a wide range of physical and industrial applications, such as heat and mass transfer, crystal growth or biomechanics. The numerical approximation of this class of problemscan present substantial difficulties clue to regions of high gradients (steep fronts) of the solution, where generation of spurious oscillations or smearing should be precluded. This work is devoted to the development of an efficient numerical technique to deal with pure linear convection and convection-dominated problems in the frame-work of convection-diffusion-reaction systems. The particle transport method, developed in this study, is based on using rneshless numerical particles which carry out the solution along the characteristics defining the convective transport. The resolution of steep fronts of the solution is controlled by a special spacial adaptivity procedure. The serni-Lagrangian particle transport method uses an Eulerian fixed grid to represent the solution. In the case of convection-diffusion-reaction problems, the method is combined with diffusion and reaction solvers within an operator splitting approach. To transfer the solution from the particle set onto the grid, a fast monotone projection technique is designed. Our numerical results confirm that the method has a spacial accuracy of the second order and can be faster than typical grid-based methods of the same order; for pure linear convection problems the method demonstrates optimal linear complexity. The method works on structured and unstructured meshes, demonstrating a high-resolution property in the regions of steep fronts of the solution. Moreover, the particle transport method can be successfully used for the numerical simulation of the real-life problems in, for example, chemical engineering.
Resumo:
L’Escola Politècnica Superior de la Universitat de Vic disposa d’una cèl·lula de fabricació flexible del fabricant Festo, que simula un procés d’emmagatzematge automàtic, aquesta cèl·lula esta composta per quatre estacions de muntatge diferenciades i independents, l’estació palets, l’estació plaques, l’estació magatzem intermedi i l’estació transport. Cada una d’aquestes estacions està formada per sensors i actuadors elèctrics i pneumàtics del fabricant Festo que van connectats a un PLC SIEMENS S7-300.Els quatre PLC’s (un per cada estació) estan connectats entre ells mitjançant el bus de comunicacions industrials Profibus. L’objectiu d’aquest treball consisteix en l’adaptació de la programació dels PLC’s i la realització d’un SCADA per tal de controlar el funcionament del conjunt de la cèl·lula de fabricació a través del software Vijeo Citect, d’aquesta manera es coneixerà el funcionament de la cèl·lula i permetrà treure’n rendiment per la docència. Aquest projecte ha estat realitzat en quatre fases principals. 1. Estudi i coneixement de les estacions, en aquesta fase s’han estudiat els manuals de funcionament de les estacions i s’han interpretat els codis de programació dels seus PLCs, amb l’objectiu de conèixer bé el programa per tal de interaccionar-hi més endavant amb el sistema SCADA 2. Disseny i programació del sistema SCADA, en aquesta fase s’ha realitzat tot el disseny gràfic de les pantalles de la interfície SCADA així com la programació dels objectes, la connexió amb els PLCs i la base de dades. 3. Posada en marxa del sistema complert, quan es coneixia abastament el funcionament de les estacions i el sistema SCADA estava completat s’ha fet la posada en marxa del conjunt i s’ha comprovat el correcte funcionament i interacció dels sistemes. 4. Realització de la memòria del projecte, en aquesta ultima fase s’ha realitzat la memòria del projecte on s’expliquen les característiques i funcionament de totes les estacions i del sistema SCADA. La conclusió més rellevant obtinguda en aquest treball, és la clara visualització de la potència i simplicitat que han aportat els sistemes SCADA al món de l’automatització, anys enrere per la supervisió de l’estat d’un sistema automatitzat era necessari disposar d’un gran espai amb grans panells de control formats per una gran quantitat de pilots lluminosos, potenciòmetres, interruptors, polsadors, displays i sobretot un voluminós i complexa cablejat, gràcies als sistemes SCADA avui en dia tot això pot quedar reduït a un PC o terminal tàctil, amb pantalles gràfiques clares i una gran quantitat d’opcions de supervisió control i configuració del sistema automatitzat.
Resumo:
This thesis considers aspects related to the design and standardisation of transmission systems for wireless broadcasting, comprising terrestrial and mobile reception. The purpose is to identify which factors influence the technical decisions and what issues could be better considered in the design process in order to assess different use cases, service scenarios and end-user quality. Further, the necessity of cross-layer optimisation for efficient data transmission is emphasised and means to take this into consideration are suggested. The work is mainly related terrestrial and mobile digital video broadcasting systems but many of the findings can be generalised also to other transmission systems and design processes. The work has led to three main conclusions. First, it is discovered that there are no sufficiently accurate error criteria for measuring the subjective perceived audiovisual quality that could be utilised in transmission system design. Means for designing new error criteria for mobile TV (television) services are suggested and similar work related to other services is recommended. Second, it is suggested that in addition to commercial requirements there should be technical requirements setting the frame work for the design process of a new transmission system. The technical requirements should include the assessed reception conditions, technical quality of service and service functionalities. Reception conditions comprise radio channel models, receiver types and antenna types. Technical quality of service consists of bandwidth, timeliness and reliability. Of these, the thesis focuses on radio channel models and errorcriteria (reliability) as two of the most important design challenges and provides means to optimise transmission parameters based on these. Third, the thesis argues that the most favourable development for wireless broadcasting would be a single system suitable for all scenarios of wireless broadcasting. It is claimed that there are no major technical obstacles to achieve this and that the recently published second generation digital terrestrial television broadcasting system provides a good basis. The challenges and opportunities of a universal wireless broadcasting system are discussed mainly from technical but briefly also from commercial and regulatory aspect
Resumo:
Both atom localization and Raman cooling, considered in the thesis, reflect recent progress in the area of all-optical methods. We focus on twodimensional (2D) case, using a four-level tripod-type atomic scheme for atom localization within the optical half-wavelength as well as for efficient subrecoil Raman cooling. In the first part, we discuss the principles of 1D atom localization, accompanying by an example of the measurement of a spontaneously-emitted photon. Modifying this example, one archives sub-wavelength localization of a three-level -type atom, measuring the population in its upper state. We go further and obtain 2D sub-wavelength localization for a four-level tripod-type atom. The upper-state population is classified according to the spatial distribution, which in turn forms such structures as spikes, craters and waves. The second part of the thesis is devoted to Raman cooling. The cooling process is controlled by a sequence of velocity-selective transfers from one to another ground state. So far, 1D deep subrecoil cooling has been carried out with the sequence of square or Blackman pulses, applied to -type atoms. In turn, we discuss the transfer of atoms by stimulated Raman adiabatic passage (STIRAP), which provides robustness against the pulse duration if the cooling time is not in any critical role. A tripod-type atomic scheme is used for the purpose of 2D Raman cooling, allowing one to increase the efficiency and simplify the realization of the cooling.
Resumo:
Tässä diplomityössä selvitettiin kohdeorganisaation tehtaiden käyttäjäkunnossapidon nykytilannetta ja kehityskohteita konelinjoittain. Käyttäjäkunnossapito otettiin käyttöön vain vähän aikaa sitten entisen vuorohuollon tilalle. Tutkimus toteutettiin haastattelututkimuksena ja tietoa kerättiin kyselylomakkeiden avulla. Kyselyn otanta oli 200 henkilöä, joista 89,5 % vastasi kyselyyn. Haastateltavia oli seitsemästä eri henkilöryhmästä. Haastateltavat henkilöryhmät olivat käyttäjäkunnossapidon kanssa päivittäin työskenteleviä ryhmiä. Tuloksia analysoitiin konelinjoittain, tehtastasolla ja henkilöryhmittäin. Analysoinnissa käytettiin apuna tehtaan järjestelmistä löytyviä tilastoja ja kyselyn teettämisen jälkeisiä keskusteluja. Suurin haaste käyttäjäkunnossapidon nykytilanteessa oli kunnossapito-osaamisen säilyttäminen, sillä käyttäjäkunnossapitäjien työ on suurimmaksi osaksi tuotantotyötä. Käyttäjäkunnossapitäjien osaamistasot vaihtelivat suuresti. Joidenkin konelinjojen käyttäjäkunnossapitäjillä osaamistasot eivät olleet vielä työn vaatimalla tasolla. Toimintamallin käytännön toteutuksessa oli parannettavaa useilla konelinjoilla. Käyttäjäkunnossapito ei ole pystynyt tekemään kunnossapitoa yhtä suuressa mittakaavassa kuin vuorohuolto. Jatkotoimenpiteinä ehdotettiin käyttäjäkunnossapitäjien kunnossapitotyön määrän lisäämistä tarkastuskierrosten ja ennakkohuoltojen muodossa, sekä linjakunnossapidon ja käyttäjäkunnossapidon yhteistyömallin kehittämistä.
Resumo:
Työssä kartoitettiin teollisuuden palveluliiketoiminnan vaativien toimitusprosessien kehittämistä Lean -ajattelu yritysympäristössä. Tavoitteena oli vaativien toimituspro-sessien ongelmien selvittäminen ja kehittämiskohteiden määrittäminen palveluliike-toiminnan tuottavuuden kehittämisen näkökulmasta. Lisäksi tutkittiin arvovirtakuvauksen soveltuvuutta teollisuuden palveluliiketoiminnan prosessien kehittämiseen. Kirjallisuusosuudessa selvitettiin teollisuuden palveluliiketoiminnan prosessien kehit-tämisen erityispiirteitä ja Lean -ajattelun periaatteita. Tavoitteena on löytää teollisuuden palveluliiketoiminnan kehittämisen erityispiirteet tuottavuuden kannalta ja arvioida niiden soveltuvuutta Lean -ajatteluun. Työn empiirisessä osuudessa kartoitettiin yrityksen vaativat prosessit. Menetelminä työssä käytettiin puolistrukturoitua kyselyä, ryhmähaastattelua, ja osallistuvaa ha-vainnointia. Tutkimuksen tulosten perusteella laadittiin kehityssuunnitelma. Diplomityö käynnisti kohdeorganisaatiossa prosessien päivitysprosessin, ja loi puitteet vaativien toimitusten kehityssuunnitelman toteuttamiselle.
Resumo:
‘The Father of Canadian Transportation’ is a term commonly associated with William Hamilton Merritt. Although he is most known for being one of the driving forces behind the building of the first Welland Canal, he was many things throughout his life; a soldier, merchant, promoter, entrepreneur and politician to name a few. Born on July 3, 1793 at Bedford, Westchester County, N.Y. to Thomas Merritt and Mary Hamilton, Merritt’s family relocated to Canada shortly after in 1796. The move came after Merritt’s father petitioned John Graves Simcoe for land in Upper Canada after serving under him in the Queen’s Rangers during the American Revolution. The family quickly settled into their life at Twelve Mile Creek in St. Catharines. Merritt’s father became sheriff of Lincoln County in 1803 while Merritt began his education in mathematics and surveying. After some brief travel and further education Merritt returned to Lincoln County, in 1809 to help farm his father’s land and open a general store. While a farmer and merchant, Merritt turned his attention to military endeavours. A short time after being commissioned as a Lieutenant in the Lincoln militia, the War of 1812 broke out. Fulfilling his duty, Merritt fought in the Battle of Queenston Heights in October of 1812, and numerous small battles until the Battle of Lundy’s Lane in July 1814. It was here that Merritt was captured and held in Cheshire, Massachusetts until the war ended. Arriving back in the St. Catharines area upon his release, Merritt returned to being a merchant, as well as becoming a surveyor and mill owner. Some historians hypothesize that the need to draw water to his mill was how the idea of the Welland Canals was born. Beginning with a plan to connect the Welland River with the Twelve mile creek quickly developed into a connection between the Lakes Erie and Ontario. Its main purpose was to improve the St. Lawrence transportation system and provide a convenient way to transport goods without having to go through the Niagara Falls portage. The plan was set in motion in 1818, but most living in Queenston and Niagara were not happy with it as it would drive business away from them. Along with the opposition came financial and political restraints. Despite these factors Merritt pushed on and the Welland Canal Company was chartered by the Upper Canadian Assembly on January 19, 1824. The first sod was turned on November 30, 1824 almost a year after the initial chartering. Many difficulties arose during the building of the canal including financial, physical, and geographic restrictions. Despite the difficulties two schooners passed through the canal on November 30, 1829. Throughout the next four years continual work was done on the canal as it expended and was modified to better accommodate large ships. After his canal was underway Merritt took a more active role in the political arena, where he served in various positions throughout Upper Canada. In 1851, Merritt withdrew from the Executive Council for numerous reasons, one of which being that pubic interest had diverted from the canals to railways. Merritt tried his hand at other public works outside transportation and trade. He looked into building a lunatic asylum, worked on behalf of War of 1812 veterans, aided in building Brock’s monument, established schools, aided refugee slaves from the U.S. and tried to establish a National Archives among many other feats. He was described by some as having “policy too liberal – conceptions too vast – views too comprehensive to be comprehensible by all”, but he still made a great difference in the society in which he lived. After his great contributions, Merritt died aboard a ship in the Cornwall canal on July 5, 1862. Dictionary of Canadian Biography Online http://www.biographi.ca/EN/ShowBio.asp?BioId=38719 retrieved October 2006 Today numerous groups carry on the legacy of Merritt and the canals both in the past and present. One such group is the Welland Canals Foundation. They describe themselves as: “. . . a volunteer organization which strives to promote the importance of the present and past Welland Canals, and to preserve their history and heritage. The Foundation began in 1980 and carries on events like William Hamilton Merritt Day. The group has strongly supported the Welland Canals Parkway initiative and numerous other activities”. The Welland Canals Foundation does not work alone. They have help from other local groups such as the St. Catharines Historical Society. The Society’s main objective is to increase knowledge and appreciation of the historical aspects of St. Catharines and vicinity, such as the Welland Canals. http://www.niagara.com/~dmdorey/hssc/dec2000.html - retrieved Oct. 2006 http://www.niagara.com/~dmdorey/hssc/feb2000.html - retrieved Oct. 2006
Resumo:
In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.
Resumo:
En octobre 2005, l’assemblée générale de l’UNESCO adoptait la Déclaration universelle sur la bioéthique et les droits de l’Homme. Le projet de cette déclaration a été élaboré par le Comité international de bioéthique (CIB) en consultation avec le Comité intergouvernemental de bioéthique (CIGB), les États membres, le comité interagences des Nations Unies, des organisations gouvernementales et non gouvernementales, des comités nationaux d’éthiques et de multiples acteurs impliqués en bioéthique. Cette déclaration faisait suite à deux autres textes sur le même sujet produits en 1997 et 2003, la Déclaration sur le génome humain et les droits de l’homme et la Déclaration internationale sur les données génétiques humaines. Les nouvelles questions éthiques que suscitaient les développements scientifiques et technologiques ainsi que la mondialisation de la recherche avaient incité cette organisation à se doter d’instruments normatifs pouvant rejoindre toutes les nations. Seule organisation mondiale ayant une vocation spécifique en éthique, l’UNESCO a voulu par cette dernière déclaration fournir à ses États membres un cadre normatif susceptible de les aider à formuler des lois et des lignes directrices. Ayant été impliquée, à titre de présidente du Comité international de bioéthique dans la préparation de cet instrument nous nous sommes posée la question suivante : Dans un contexte de mondialisation, une bioéthique qui vise le bien commun universel est-elle possible au sein de la diversité et de la pluralité culturelle des nations ? L’exemple de l’élaboration de la déclaration universelle sur la bioéthique et les droits de l’homme de l’UNESCO. Le bien commun étant un concept fréquemment mentionné et à peu près jamais défini clairement, il nous a semblé intéressant d’en retracer l’histoire et de dégager un cadre conceptuel qui a ensuite servi à étudier et dégager le sens donné à ces concepts dans la préparation de la déclaration. Un premier chapitre présente le contexte et la problématique. Le deuxième chapitre présente la revue de la littérature et la définition des concepts ainsi que le cadre conceptuel. Le troisième chapitre présente le cadre théorique et les données analysées et la méthodologie. Le quatrième chapitre présente l’analyse détaillée des différentes étapes de l’élaboration de la déclaration. Le cinquième chapitre présente la portée et les limites de la thèse et le cinquième chapitre la conclusion. Nous concluons que la déclaration en ayant utilisé une méthode de consultation, de délibération et de consensus pragmatique, offre un texte avec une vision d’un bien commun universel susceptible d’être utilisé dans tous les contextes culturels et par toutes les nations, spécialement les nations en développement. En effet, son architecture flexible et son souci de ne pas catégoriser les principes, mais plutôt de les utiliser en complémentarité les uns avec les autres, en fait un texte souple et adaptable au plan mondial. Ce travail pourra aussi contribuer à enrichir la réflexion et l’action des organisations internationales impliquées en bioéthique. Il pourra aussi inspirer les recherches actuelles en sciences politiques et en droit alors que sont explorés de nouveaux modèles de gouvernance et de nouvelles façons de construire les législations et les normes et de faire face aux défis actuels qui se posent aux droits de l’homme.