888 resultados para power to extend time


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La littérature contient une abondance d’information sur les approches de design impliquant les utilisateurs. Bien que les chercheurs soulèvent de nombreux avantages concernant ces approches, on en sait peu sur ce que les concepteurs des entreprises en pensent. Ce projet a pour but de connaître les perceptions des concepteurs de produits quant aux outils de design participatif puis, d’identifier les opportunités et limites qu’ils évoquent à ce sujet, et finalement, de faire des suggestions d’outils qui faciliteraient l’introduction du design participatif dans un processus de design existant. Après avoir fait un survol du domaine du design participatif et de ses outils, six cas sont étudiés au moyen d’entrevues semi-dirigées conduites auprès de concepteurs de produits. Les données sont analysées à l’aide de cartes cognitives. En ce qui concerne les outils de design participatif, les participants rencontrés perçoivent un accès direct aux besoins des utilisateurs et la possibilité de minimiser les erreurs en début de processus donc, d’éviter les modifications coûteuses qu’elles auraient entraînées. Les obstacles perçus par les concepteurs sont principalement liés à la résistance au changement, à la crainte de laisser créer ou décider les utilisateurs, ainsi qu’au manque de temps et de ressources de l’équipe. Finalement, sur la base des informations collectées, nous suggérons quatre outils de design participatif qui semblent plus intéressants : l’enquête contextuelle, les sondes, les tests de prototypes et l’approche « lead user ». Pour faire suite à ce travail, il serait intéressant d’élaborer un protocole de recherche plus exhaustif pour augmenter la portée des résultats, ou encore, d’appliquer le design participatif, dans une entreprise, afin d’explorer la satisfaction des gens quant aux produits conçus, les effets collatéraux sur les équipes impliquées, l’évolution des prototypes ou le déroulement des ateliers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent mémoire décrit le développement d’une méthode de synthèse des hélicènes catalysée par la lumière visible. Les conditions pour la formation de [5]hélicène ont été établies par une optimisation du photocatalyseur, du solvant, du système d’oxydation et du temps réactionnel. Suite aux études mécanistiques préliminaires, un mécanisme oxydatif est proposé. Les conditions optimisées ont été appliquées à la synthèse de [6]hélicènes pour laquelle la régiosélectivité a été améliorée en ajoutant des substituants sur la colonne hélicale. La synthèse de thiohélicènes a aussi été testée en utilisant les mêmes conditions sous irradiation par la lumière visible. La méthode a été inefficace pour la formation de benzodithiophènes et de naphtothiophènes, par contre elle permet la formation du phenanthro[3,4-b]thiophène avec un rendement acceptable. En prolongeant la surface-π de la colonne hélicale, le pyrène a été fusionné aux motifs de [4]- et [5]hélicène. Trois dérivés de pyrène-hélicène ont été synthétisés en utilisant les conditions optimisées pour la photocyclisation et leurs caractéristiques physiques ont été étudiées. La méthode de cyclisation sous l’action de la lumière visible a aussi été étudiée en flux continu. Une optimisation du montage expérimental ainsi que de la source lumineuse a été effectuée et les meilleures conditions ont été appliquées à la formation de [5]hélicène et des trois dérivés du pyrène-hélicène. Une amélioration ou conservation des rendements a été observée pour la plupart des produits formés en flux continu comparativement à la synthèse en batch. La concentration de la réaction a aussi été conservée et le temps réactionnel a été réduit par un facteur de dix toujours en comparaison avec la synthèse en batch.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire revient sur la première tutelle de la Ville de Montréal, imposée par le gouvernement provincial de 1918 à 1921. Pour l’occasion, le Lieutenant-gouverneur du Québec nomme cinq administrateurs afin de gérer les affaires courantes de la municipalité. Peu connu des historiens et du public, cet événement suscite des changements profonds dans les structures politiques et administratives de la Ville qui laissent des empreintes dans la vie quotidienne actuelle des Montréalais. Puisqu’ils ne sont pas redevables devant la population, les commissaires mettent en œuvre plusieurs réformes souvent impopulaires qui permettent de rétablir l’équilibre budgétaire de la Ville. Au passage, ils tentent de moderniser l’administration municipale dont le fonctionnement est jusque-là incompatible avec les réalités d’une population grandissante et d’un espace urbain accru par les nombreuses annexions. Notre étude souligne les réformes implantées par la Commission administrative au niveau de la fiscalité, de l’organisation des services municipaux et des politiques d'urbanisme. Elles s’inspirent de réformes mises en œuvre dans plusieurs villes nord-américaines de grande taille. Durant leur mandat, les nouveaux administrateurs cherchent à imposer un modèle d’administration s’inspirant de grandes entreprises privées et réussissent à réduire de manière substantielle le déficit de la Ville. Enfin, une attention particulière est accordée à la fin du mandat de la Commission administrative et au régime administratif qui lui fait suite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Voir la bibliographie du mémoire pour les références du résumé. See the thesis`s bibliography for the references in the summary.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche s’intéresse au phénomène qu’est l’allongement de la durée des conventions collectives. Avant juin 1994, la durée maximale d’une convention collective était fixée à trois ans. La venue de la mondialisation a chamboulé les entreprises qui, elles, pour s’adapter et survivre à cette nouvelle réalité et demeurer compétitives, ont dû procéder à des investissements majeurs, des restructurations, miser sur des relations de partenariat avec les syndicats, etc. (Boivin, 1998). Pour ce faire, elles devaient s’assurer d’obtenir une stabilité et une paix industrielle (Grant et Paquet, 1998). C’est à ce moment que nous avons vu l’apparition d’ententes qui visaient à prolonger la durée maximale des conventions collectives, fixées à trois ans, sans contrevenir aux différentes dispositions du Code du travail (L.R.Q. c.C-27). Ces « contrats sociaux » devaient compter différentes caractéristiques particulières. C’est le 10 mai 1994 que le législateur québécois a déplafonné la durée des conventions collectives (Mayer, 1999). Tel qu’établi, les transformations au niveau de l’environnement ont poussé les acteurs à revoir leurs façons de faire. Cela a mené à une déconflictualisation des relations du travail (Jalette, Bourque et Laroche, 2008). Les acteurs ont adopté des stratégies de négociation de plus en plus coopératives, ils ont eu un recours accru à la concertation, et ont développé une relation de partenariat (Maschino et coll., 2001). Nous observons en parallèle à une tendance à l’allongement de la durée des conventions collectives. Nous nous questionnons à savoir ce qui a principalement motivé autant les syndicats à négocier ce type d’entente et ainsi, renoncer à leur droit de grève, et aussi quels sont les avantages ou inconvénients pour les employeurs de négocier de telles ententes. De manière plus spécifique, notre question de recherche est la suivante : Quels sont les effets de l’allongement de la durée des conventions collectives sur les relations du travail locales en entreprise? Notre analyse vise à vérifier six propositions de recherche : 1- Les relations du travail sont transformées par la durée d’une convention collective de travail, laquelle est influencée par l’environnement. 2- L’allongement de la durée des conventions collectives de travail amène les parties à davantage recourir à des stratégies de négociation intégrative. 3- L’allongement de la durée des conventions collectives de travail contribue à diminuer le nombre de conflits de travail 4- L’allongement de la durée des conventions collectives de travail change la nature des manifestations du conflit sur le marché du travail. 5- L’allongement de la durée des conventions collectives transforme le contenu des conventions collectives de travail par l’intégration de clauses nouvelles. 6- L’allongement de la durée des CCT diminue le rapport de force du syndicat. Dans le but de répondre à ces différents questionnements, nous avons utilisé une méthodologie qualitative de recherche et plus précisément, l’étude de cas. Cette dernière fut conduite en trois étapes : la préparation, la collecte de données et l’interprétation (Merriam, 1998). Les données de notre étude ont été colligées durant l’été et l’automne 2010. Tout d’abord, nous avons effectué des entretiens semi structuré à l’aide d’une grille d’entrevue. Cette grille d’entrevue fut adaptée en fonction des acteurs rencontrés, et surtout de la partie qu’ils représentent. Nous avons interrogé les acteurs tant patronaux que syndicaux, c’est-à-dire : du côté patronal, nous avons rencontré les responsables des relations du travail oeuvrant au siège social ainsi que les conseillers en relations du travail en charge de négocier ou d’appliquer la convention collective des différents établissements couverts par l’étude. Du côté syndical, nous avons rencontré les conseillers syndicaux en charge également de négocier la convention collective et de veiller à son application. Au total, nous avons mené onze entretiens. En guise de comparaison, nous avons aussi procédé à une analyse de contenu de 139 conventions collectives du secteur de l’alimentation. Nous cherchions à savoir si les conventions collectives de longue durée avaient tendance à comporter majoritairement une plus grande présence de clauses en lien avec les 7 caractéristiques des « contrats sociaux » mentionnées par Mayer (1999). Ces caractéristiques sont les suivantes : transparence économique et de gestion, participation à la gestion, programme de qualité totale, formation, flexibilité dans l’organisation du travail, stabilité de l’emploi et mécanismes de gestion de l’entente. Mots clés : allongement, durée, conventions collectives, relations du travail, loi 116, déplafonnement des conventions collectives, NBI et concertation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Injectable drug nanocarriers have greatly benefited in their clinical development from the addition of a superficial hydrophilic corona to improve their cargo pharmacokinetics. The most studied and used polymer for this purpose is poly(ethylene glycol), PEG. However, in spite of its wide use for over two decades now, there is no general consensus on the optimum PEG chain coverage-density and size required to escape from the mononuclear phagocyte system and to extend the circulation time. Moreover, cellular uptake and active targeting may have conflicting requirements in terms of surface properties of the nanocarriers which complicates even more the optimization process. These persistent issues can be largely attributed to the lack of straightforward characterization techniques to assess the coverage-density, the conformation or the thickness of a PEG layer grafted or adsorbed on a particulate drug carrier and is certainly one of the main reasons why so few clinical applications involving PEG coated particle-based drug delivery systems are under clinical trial so far. The objective of this review is to provide the reader with a brief description of the most relevant techniques used to assess qualitatively or quantitatively PEG chain coverage-density, conformation and layer thickness on polymeric nanoparticles. Emphasis has been made on polymeric particle (solid core) either made of copolymers containing PEG chains or modified after particle formation. Advantages and limitations of each technique are presented as well as methods to calculate PEG coverage-density and to investigate PEG chains conformation on the NP surface.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les historiens ont eu tendance à effacer les femmes de leurs écrits lorsqu’il était question des élites de la Nouvelle-France ; ce concept a longtemps été associé au monde masculin. Le choix d’exclure la gent féminine n’est pas surprenant lorsque l’on sait que les définitions rattachées à l’élite proviennent principalement de la profession, ainsi que de la place occupée par les gens dans les institutions ou dans les structures de pouvoir. À cette époque, la majorité des femmes n’occupaient aucune fonction décisionnelle ; elles étaient maintenues, ‘’grâce’’ au patriarcat, dans la sphère domestique. Malgré ces constats, ce mémoire s’intéresse tout de même à la pertinence d’une définition de l’élite au féminin. Nous essayons donc de démontrer que les femmes en Nouvelle-France avaient aussi des lieux de rassemblement élitaire. Pour y parvenir, nous étudions le parcours des principales officières de la confrérie des Dames de la Sainte-Famille (Montréal) entre 1724 et 1760. Afin de connaître leur statut socio-économique, ce mémoire s’emploie à relever divers éléments caractéristiques : statut socio-professionnel de leur père et de leurs maris, les montants des douaires et des préciputs dans leurs contrats de mariage, l’âge au premier mariage, le nombre de naissances ainsi que la mortalité infantile. Ces divers indicateurs révèlent que la majorité de ces dames provenaient effectivement d’un milieu élitaire. Pour consolider cette conclusion, ce mémoire analyse ensuite le comportement de ces femmes en lien avec une des caractéristiques propres aux élites soit le réseautage. Il s’intéresse particulièrement à la pratique du marrainage ; qui sont les parrains et marraines des officières, qui sont les marraines de leurs enfants et de qui elles sont les marraines. Cette dernière partie du mémoire vient à son tour confirmer la dimension élitaire des officières de la Sainte-Famille.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The thesis deals with some of the non-linear Gaussian and non-Gaussian time models and mainly concentrated in studying the properties and application of a first order autoregressive process with Cauchy marginal distribution. In this thesis some of the non-linear Gaussian and non-Gaussian time series models and mainly concentrated in studying the properties and application of a order autoregressive process with Cauchy marginal distribution. Time series relating to prices, consumptions, money in circulation, bank deposits and bank clearing, sales and profit in a departmental store, national income and foreign exchange reserves, prices and dividend of shares in a stock exchange etc. are examples of economic and business time series. The thesis discuses the application of a threshold autoregressive(TAR) model, try to fit this model to a time series data. Another important non-linear model is the ARCH model, and the third model is the TARCH model. The main objective here is to identify an appropriate model to a given set of data. The data considered are the daily coconut oil prices for a period of three years. Since it is a price data the consecutive prices may not be independent and hence a time series based model is more appropriate. In this study the properties like ergodicity, mixing property and time reversibility and also various estimation procedures used to estimate the unknown parameters of the process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Remote Data acquisition and analysing systems developed for fisheries and related environmental studies have been reported. It consists of three units. The first one namely multichannel remote data acquisition system is installed at the remote place powered by a rechargeable battery. It acquires and stores the 16 channel environmental data on a battery backed up RAM. The second unit called the Field data analyser is used for insitue display and analysis of the data stored in the backed up RAM. The third unit namely Laboratory data analyser is an IBM compatible PC based unit for detailed analysis and interpretation of the data after bringing the RAM unit to the laboratory. The data collected using the system has been analysed and presented in the form of a graph. The system timer operated at negligibly low current, switches on the power to the entire remote operated system at prefixed time interval of 2 hours.Data storage at remote site on low power battery backedupRAM and retrieval and analysis of data using PC are the special i ty of the system. The remote operated system takes about 7 seconds including the 5 second stabilization time to acquire and store data and is very ideal for remote operation on rechargeable bat tery. The system can store 16 channel data scanned at 2 hour interval for 10 days on 2K backed up RAM with memory expansion facility for 8K RAM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We demonstrate the possibility of realizing, all-optical switching in gold nanosol. Two overlapping laser beams are used for this purpose, due to which a low-power beam passing collinear to a high-power beam will undergo cross phase modulation and thereby distort the spatial profile. This is taken to advantage for performing logic operations. We have also measured the threshold pump power to obtain a NOT gate and the minimum response time of the device. Contrary to the general notion that the response time of thermal effects used in this application is of the order of milliseconds, we prove that short pump pulses can result in fast switching. Different combinations of beam splitters and combiners will lead to the formation of other logic functions too.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We propose to show in this paper, that the time series obtained from biological systems such as human brain are invariably nonstationary because of different time scales involved in the dynamical process. This makes the invariant parameters time dependent. We made a global analysis of the EEG data obtained from the eight locations on the skull space and studied simultaneously the dynamical characteristics from various parts of the brain. We have proved that the dynamical parameters are sensitive to the time scales and hence in the study of brain one must identify all relevant time scales involved in the process to get an insight in the working of brain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Reliability analysis is a well established branch of statistics that deals with the statistical study of different aspects of lifetimes of a system of components. As we pointed out earlier that major part of the theory and applications in connection with reliability analysis were discussed based on the measures in terms of distribution function. In the beginning chapters of the thesis, we have described some attractive features of quantile functions and the relevance of its use in reliability analysis. Motivated by the works of Parzen (1979), Freimer et al. (1988) and Gilchrist (2000), who indicated the scope of quantile functions in reliability analysis and as a follow up of the systematic study in this connection by Nair and Sankaran (2009), in the present work we tried to extend their ideas to develop necessary theoretical framework for lifetime data analysis. In Chapter 1, we have given the relevance and scope of the study and a brief outline of the work we have carried out. Chapter 2 of this thesis is devoted to the presentation of various concepts and their brief reviews, which were useful for the discussions in the subsequent chapters .In the introduction of Chapter 4, we have pointed out the role of ageing concepts in reliability analysis and in identifying life distributions .In Chapter 6, we have studied the first two L-moments of residual life and their relevance in various applications of reliability analysis. We have shown that the first L-moment of residual function is equivalent to the vitality function, which have been widely discussed in the literature .In Chapter 7, we have defined percentile residual life in reversed time (RPRL) and derived its relationship with reversed hazard rate (RHR). We have discussed the characterization problem of RPRL and demonstrated with an example that the RPRL for given does not determine the distribution uniquely

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study is concerned with Autoregressive Moving Average (ARMA) models of time series. ARMA models form a subclass of the class of general linear models which represents stationary time series, a phenomenon encountered most often in practice by engineers, scientists and economists. It is always desirable to employ models which use parameters parsimoniously. Parsimony will be achieved by ARMA models because it has only finite number of parameters. Even though the discussion is primarily concerned with stationary time series, later we will take up the case of homogeneous non stationary time series which can be transformed to stationary time series. Time series models, obtained with the help of the present and past data is used for forecasting future values. Physical science as well as social science take benefits of forecasting models. The role of forecasting cuts across all fields of management-—finance, marketing, production, business economics, as also in signal process, communication engineering, chemical processes, electronics etc. This high applicability of time series is the motivation to this study.