909 resultados para Lead-time and set-up optimization
Resumo:
Transcript (original grammar and spelling retained): My dear wife I take this time to inform you that I am well hoping that these few lines will Reach you and find you the same I shall in form you of all our Battles that we have had sence I left home we crossed in to Canada the 2 day of July and took fort Erie on the 3 day of July without loss of one man. We then marched down to Chipway eighteen miles below the Fort Erie we got there on the forth day and had our first battle on the 5 day our loss was not jistly known But the inemy loss was double to ours. The 6 day we started with the 2 Brigade to make a bridge a crost the crick two miles a bove the fort in Building the Bridge the inemy Brought up their Canon and playd upon us with their artiliery a bout two hours We drove them from the fort our loss was none the inemy loss was nineteen ciled dead on the ground we then marched to Queenston when we got thare our inemy had fledfrom the fort we then remained thair to Queenston ten days then we marched down to Fort George But that caurdly Chaney did not a rive with the fleet so we had to return back to Queenston thare was a bout six hundred militia formed on the heights of land thay fired up on us from their pickets and retreated to the mane body our flankers ciled and wounded and took about twenty before they got to the Maine body we then marched up the hill they gave us two firs but did not damage and then retreated from the field we stayed there one knight and then marched to Chipway and stayed there one night and the next day just as the sun set the first Brigade marched up in order to give them Battle a bout two miles from the Crick and began the Battle the 2 Brigade has to March up to the Niagara path and ingaged them we charged up on their artlery and took all their Canon Miller commanded the four companys that charged....the battles lasted three hours and forty minutes our loss was about 8 hundred cild and wounded our inemies loss was a bout fourteen hundred cild and wounded the next morning we Marched up in order to give them Battle a gin but thay was afraid to ingage us we then marched to Fort Erie and went to fortiffing and made a strong place the inemy folered us up and Began to cananade and held it fifty three days thay a tacked the fort the fifteenth of august thay atacked a bout one hiour be fore day Light we saw them and Blue up our maggerzean & two hundred of our inemy our loss wasa bout forty cild and wounded and our inemy loss was a bout one thousand on the 7 Day of September we atacked them and took their batteries and Broke all their canon and drove them from the field our loss was a Bout two hundred cild and wounded our inemy loss was a Bout 8 hundred cild and wounded...we crossed in to Canada with five thousand and came out with fifteen hundred we then Marched to Sackett’s harbor....am well and harty for the present....a bout comming home it uncarting for there is not any....given this winter as yet But I shall try to Come home if I Can But if I Cant I want you should take good car of the Phiddness[?] I have not Received any Money as yet But soon as I do receive some I send some home. I want you should write to me as soon as you receive this and and how Much Stock you wintor I Received your Letter with Great pleasure I feel uneasy a bout you I am a frade that you are sick or dead this is from your husband Chase Clough
Resumo:
On February 1st, 1854 an act was passed in order to regulate the sale of goods, wares and merchandise. Section I pertained to the fact that any merchant would first obtain a license. Section II deemed that no merchant should sell any wine or spirituous liquors, beer or ale within the municipality of Crowland in any less quantity than 5 gallons or less than 12 bottles in any place other than a House of Public Entertainment without having obtained a license. Section III was in regard to licensing any person who would use a billiard table which was set up for hire or gain. Section IV stated that all sums of money paid by the keepers of Houses of Public Entertainment plus the imperial duty of 2 pound would be payable to the Treasurer of the Municipality of Crowland. Section V was written regarding the continuance of the act to regulate inns, taverns, temperance houses and other Houses of Public Entertainment. Section VI specified that all recesses (not authorized to sell liquor) would pay the sum of 2 pounds. Section VII declared that Peter Benedict was appointed Revenue Inspector of the township and section VIII stated that recess-keepers who took out liquor licenses would be required to pay 6 pounds 5 shillings and for violating this they would pay a penalty. This document was written by Leonard M. Matthews, Township reeve and Alex Reid, clerk.
Resumo:
Self-regulation is considered a powerful predictor of behavioral and mental health outcomes during adolescence and emerging adulthood. In this dissertation I address some electrophysiological and genetic correlates of this important skill set in a series of four studies. Across all studies event-related potentials (ERPs) were recorded as participants responded to tones presented in attended and unattended channels in an auditory selective attention task. In Study 1, examining these ERPs in relation to parental reports on the Behavior Rating Inventory of Executive Function (BRIEF) revealed that an early frontal positivity (EFP) elicited by to-be-ignored/unattended tones was larger in those with poorer self-regulation. As is traditionally found, N1 amplitudes were more negative for the to-be-attended rather than unattended tones. Additionally, N1 latencies to unattended tones correlated with parent-ratings on the BRIEF, where shorter latencies predicted better self-regulation. In Study 2 I tested a model of the associations between selfregulation scores and allelic variations in monoamine neurotransmitter genes, and their concurrent links to ERP markers of attentional control. Allelic variations in dopaminerelated genes predicted both my ERP markers and self-regulatory variables, and played a moderating role in the association between the two. In Study 3 I examined whether training in Integra Mindfulness Martial Arts, an intervention program which trains elements of self-regulation, would lead to improvement in ERP markers of attentional control and parent-report BRIEF scores in a group of adolescents with self-regulatory difficulties. I found that those in the treatment group amplified their processing of attended relative to unattended stimuli over time, and reduced their levels of problematic behaviour whereas those in the waitlist control group showed little to no change on both of these metrics. In Study 4 I examined potential associations between self-regulation and attentional control in a group of emerging adults. Both event-related spectral perturbations (ERSPs) and intertrial coherence (ITC) in the alpha and theta range predicted individual differences in self-regulation. Across the four studies I was able to conclude that real-world self-regulation is indeed associated with the neural markers of attentional control. Targeted interventions focusing on attentional control may improve self-regulation in those experiencing difficulties in this regard.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
Cette thèse de doctorat, qui s’inscrit dans un programme de doctorat en sciences humaines appliquées, s’est d’abord construite en réponse à un problème concret, celui du roulement des infirmières et des infirmières auxiliaires dans le réseau de la santé et des services sociaux. En cours de route, il est toutefois apparu nécessaire d’élargir le questionnement à la question du rapport au travail des jeunes infirmières pour être en mesure de saisir les dynamiques sociales plus larges qui conditionnent certains choix professionnels, dont la décision de quitter son emploi. Cette thèse poursuit donc deux grands objectifs. D’une part, elle s’attarde à cerner l’ensemble des processus qui conduisent les jeunes infirmières à faire le choix de quitter leur emploi. D’autre part, elle vise à mieux comprendre comment a évolué leur rapport au travail dans le temps. La perspective théorique retenue s’appuie sur deux approches complémentaires, soit celles de la perspective des parcours de vie et de divers courants en sociologie de l’individu qui ont comme point commun d’accorder une place importante au contexte social, aux contraintes structurelles, de même qu’à l’autonomie des acteurs et à leur capacité d’agir sur leur parcours de vie. Ces approches s’avèrent particulièrement pertinentes dans le cadre de notre étude puisqu’elles permettent de rendre compte des liens complexes entre le contexte social plus global, les différents contextes de vie d’un individu et ses comportements en emploi. Elles invitent à conceptualiser le rapport au travail comme un processus qui évolue dans le temps à travers lequel plusieurs éléments de la vie d’un individu et de ses proches se combinent pour donner une orientation particulière aux trajectoires professionnelles. Vu sous cet angle, la décision de quitter se présente également comme un processus qui se construit dans un laps de temps plus ou moins long où entrent en jeu plusieurs dimensions de la vie d’un individu. La perspective adoptée dans le cadre de cette thèse permet de combler des lacunes dans ce champ de recherche où peu d’études se sont attardées à comprendre les différents processus qui façonnent le rapport au travail dans le temps et qui conduisent les infirmières à la décision de quitter leur emploi. Pour répondre aux objectifs de recherche, une étude qualitative a été menée. Des entrevues individuelles de type récit de vie ont été effectuées pour comprendre, du point de vue des participantes, comment a évolué leur rapport au travail et les processus qui les ont amenées à quitter leur emploi. Une étude de cas a été effectuée dans un centre de santé et de services sociaux de la province de Québec qui affichait un taux de roulement particulièrement élevé. L’étude visait les infirmières et les infirmières auxiliaires, groupe professionnel fortement touché par le roulement de la main-d’œuvre. Des entretiens en profondeur, d’une durée de 2h30 à 3 heures, ont été réalisées auprès de 42 infirmières et infirmières auxiliaires. Les résultats de la recherche sont présentés à travers la production de trois articles scientifiques. Le premier article, Pour une compréhension dynamique du rapport au travail: la valeur heuristique de la perspective des parcours de vie, a pour objectif de faire ressortir l’intérêt que présentent les principes analytiques associés à cette perspective dans l’étude du rapport au travail. Dans cet article, nous démontrons que le rapport au travail est le résultat d’un processus complexe où les aspirations des individus, leurs conditions concrètes d’emploi et les événements qui surviennent dans leur vie personnelle et familiale entretiennent des liens dynamiques et interdépendants qui façonnent le rapport au travail tout au long de la vie. Cet article apporte des éléments de réflexion à la question posée par plusieurs chercheurs : par quel moyen saisir ce qu’il en est du rapport au travail des jeunes? Le deuxième article, Rencontre entre l’idéaltype de travailleur et l’idéal de travail : le cas de jeunes infirmières en début de vie professionnelle, vise à rendre compte de la manière dont s’est faite la rencontre entre les attentes que les infirmières nourrissent à l’égard du travail et leur réalité concrète de travail à une période précise de leur trajectoire professionnelle, soit celle de leur insertion en emploi et des premières années de pratique. L’article démontre que trois dimensions du rapport au travail sont affectées par les nouvelles normes managériales qui prévalent dans le réseau de la santé et des services sociaux : 1) la place souhaitée du travail dans la vie, 2) la réalisation de soi par le travail et 3) le sens au travail. Cet article apporte une contribution dans la compréhension du rapport au travail de jeunes professionnelles qui exercent un métier de relation d’aide dans le contexte spécifique du réseau québécois de la santé et des services sociaux. Le troisième article, Comprendre le roulement comme un processus lié au cycle de la vie : le cas des infirmières, traite plus spécifiquement de la question du roulement de la main d’œuvre infirmière. Quatre parcours de départs sont présentés qui possèdent des caractéristiques distinctes relatives à la rencontre entre les attentes et la réalité concrète de travail, l’interaction entre le travail et la vie hors travail et la manière dont s’est construite dans le temps la décision de quitter son emploi. Les résultats démontrent que la décision de quitter se présente comme un processus qui se construit dans un laps de temps plus ou moins long, qui implique différentes dimensions de la vie d’un individu et qui est intimement lié à la quête de réalisation de soi au travail et dans les autres domaines de la vie. Cet article propose une façon d’appréhender le phénomène du roulement qui se distingue des modèles dominants qui abordent cette question à partir d’une lecture essentiellement individualisante et psychologisante des départs. La contribution de cette thèse à l’avancement des connaissances réside principalement dans le fait qu’elle appréhende autrement la question du rapport au travail et celle du roulement de la main-d’œuvre en recourant à la perspective des parcours de vie et à la sociologie de l’individu. L’approche que nous avons préconisée permet de saisir les processus sociaux et la multiplicité des éléments à prendre en considération dans l’étude du rapport au travail des jeunes infirmières et de la décision de quitter son emploi. Elle met en exergue l’importance de considérer le contexte social plus global dans lequel s’inscrit tout individu qui, dans les sociétés contemporaines, doit s’engager dans un travail de construction identitaire tout au long de la vie.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Cure characteristics and mechanical properties of short nylon fiber reinforced acrylonitrile butadiene rubber-reclaimed rubber composites were studied. Minimum torque, (maximum-minimum) torque and cure rate increased with fiber concentration. Scorch time and cure time decreased by the addition of fibers. Properties like tensile strength, tear strength, elongation at break, abrasion loss and heat build up were studied in both orientations of fibers. Tensile and tear properties were enhanced by the addition of fibers and were higher in the longitudinal direction. Heat build up increased with fiber concentration and were higher in the longitudinal direction. Abrasion resistance was improved in presence of short fibers and was higher in the longitudinal direction. Resilience increased on the introduction of fibers. Compression set was higher for blends.
Resumo:
Information and communication technologies are the tools that underpin the emerging “Knowledge Society”. Exchange of information or knowledge between people and through networks of people has always taken place. But the ICT has radically changed the magnitude of this exchange, and thus factors such as timeliness of information and information dissemination patterns have become more important than ever.Since information and knowledge are so vital for the all round human development, libraries and institutions that manage these resources are indeed invaluable. So, the Library and Information Centres have a key role in the acquisition, processing, preservation and dissemination of information and knowledge. ln the modern context, library is providing service based on different types of documents such as manuscripts, printed, digital, etc. At the same time, acquisition, access, process, service etc. of these resources have become complicated now than ever before. The lCT made instrumental to extend libraries beyond the physical walls of a building and providing assistance in navigating and analyzing tremendous amounts of knowledge with a variety of digital tools. Thus, modern libraries are increasingly being re-defined as places to get unrestricted access to information in many formats and from many sources.The research was conducted in the university libraries in Kerala State, India. lt was identified that even though the information resources are flooding world over and several technologies have emerged to manage the situation for providing effective services to its clientele, most of the university libraries in Kerala were unable to exploit these technologies at maximum level. Though the libraries have automated many of their functions, wide gap prevails between the possible services and provided services. There are many good examples world over in the application of lCTs in libraries for the maximization of services and many such libraries have adopted the principles of reengineering and re-defining as a management strategy. Hence this study was targeted to look into how effectively adopted the modern lCTs in our libraries for maximizing the efficiency of operations and services and whether the principles of re-engineering and- redefining can be applied towards this.Data‘ was collected from library users, viz; student as well as faculty users; library ,professionals and university librarians, using structured questionnaires. This has been .supplemented by-observation of working of the libraries, discussions and interviews with the different types of users and staff, review of literature, etc. Personal observation of the organization set up, management practices, functions, facilities, resources, utilization of information resources and facilities by the users, etc. of the university libraries in Kerala have been made. Statistical techniques like percentage, mean, weighted mean, standard deviation, correlation, trend analysis, etc. have been used to analyse data.All the libraries could exploit only a very few possibilities of modern lCTs and hence they could not achieve effective Universal Bibliographic Control and desired efficiency and effectiveness in services. Because of this, the users as well as professionals are dissatisfied. Functional effectiveness in acquisition, access and process of information resources in various formats, development and maintenance of OPAC and WebOPAC, digital document delivery to remote users, Web based clearing of library counter services and resources, development of full-text databases, digital libraries and institutional repositories, consortia based operations for e-journals and databases, user education and information literacy, professional development with stress on lCTs, network administration and website maintenance, marketing of information, etc. are major areas need special attention to improve the situation. Finance, knowledge level on ICTs among library staff, professional dynamism and leadership, vision and support of the administrators and policy makers, prevailing educational set up and social environment in the state, etc. are some of the major hurdles in reaping the maximum possibilities of lCTs by the university libraries in Kerala. The principles of Business Process Re-engineering are found suitable to effectively apply to re-structure and redefine the operations and service system of the libraries. Most of the conventional departments or divisions prevailing in the university libraries were functioning as watertight compartments and their existing management system was more rigid to adopt the principles of change management. Hence, a thorough re-structuring of the divisions was indicated. Consortia based activities and pooling and sharing of information resources was advocated to meet the varied needs of the users in the main campuses and off campuses of the universities, affiliated colleges and remote stations. A uniform staff policy similar to that prevailing in CSIR, DRDO, ISRO, etc. has been proposed by the study not only in the university libraries in kerala but for the entire country.Restructuring of Lis education,integrated and Planned development of school,college,research and public library systems,etc.were also justified for reaping maximum benefits of the modern ICTs.
Resumo:
So far, in the bivariate set up, the analysis of lifetime (failure time) data with multiple causes of failure is done by treating each cause of failure separately. with failures from other causes considered as independent censoring. This approach is unrealistic in many situations. For example, in the analysis of mortality data on married couples one would be interested to compare the hazards for the same cause of death as well as to check whether death due to one cause is more important for the partners’ risk of death from other causes. In reliability analysis. one often has systems with more than one component and many systems. subsystems and components have more than one cause of failure. Design of high-reliability systems generally requires that the individual system components have extremely high reliability even after long periods of time. Knowledge of the failure behaviour of a component can lead to savings in its cost of production and maintenance and. in some cases, to the preservation of human life. For the purpose of improving reliability. it is necessary to identify the cause of failure down to the component level. By treating each cause of failure separately with failures from other causes considered as independent censoring, the analysis of lifetime data would be incomplete. Motivated by this. we introduce a new approach for the analysis of bivariate competing risk data using the bivariate vector hazard rate of Johnson and Kotz (1975).
Resumo:
Mangroves are considered to play a significant role in global carbon cycling. Themangrove forests would fix CO2 by photosynthesis into mangrove lumber and thus decrease the possibility of a catastrophic series of events - global warming by atmospheric CO2, melting of the polar ice caps, and inundation of the great coastal cities of the world. The leaf litter and roots are the main contributors to mangrove sediments, though algal production and allochthonous detritus can also be trapped (Kristensen et al, 2008) by mangroves due to their high organic matter content and reducing nature are excellent metal retainers. Environmental pollution due to metals is of major concern. This is due to the basic fact that metals are not biodegradable or perishable the way most organic pollutants are. While most organic toxicants can be destroyed by combustion and converted into compounds such as C0, C02, SOX, NOX, metals can't be destroyed. At the most the valance and physical form of metals may change. Concentration of metals present naturally in air, water and soil is very low. Metals released into the environment through anthropogenic activities such as burning of fossils fuels, discharge of industrial effluents, mining, dumping of sewage etc leads to the development of higher than tolerable or toxic levels of metals in the environment leading to metal pollution. Of course, a large number of heavy metals such as Fe, Mn, Cu, Ni, Zn, Co, Cr, Mo, and V are essential to plants and animals and deficiency of these metals may lead to diseases, but at higher levels, it would lead to metal toxicity. Almost all industrial processes and urban activities involve release of at least trace quantities of half a dozen metals in different forms. Heavy metal pollution in the environment can remain dormant for a long time and surface with a vengeance. Once an area gets toxified with metals, it is almost impossible to detoxify it. The symptoms of metal toxicity are often quite similar to the symptoms of other common diseases such as respiratory problems, digestive disorders, skin diseases, hypertension, diabetes, jaundice etc making it all the more difficult to diagnose metal poisoning. For example the Minamata disease caused by mercury pollution in addition to affecting the nervous system can disturb liver function and cause diabetes and hypertension. The damage caused by heavy metals does not end up with the affected person. The harmful effects can be transferred to the person's progenies. Ironically heavy metal pollution is a direct offshoot of our increasing ability to mass produce metals and use them in all spheres of existence. Along with conventional physico- chemical methods, biosystem approachment is also being constantly used for combating metal pollution
Resumo:
The objective of the study of \Queueing models with vacations and working vacations" was two fold; to minimize the server idle time and improve the e ciency of the service system. Keeping this in mind we considered queueing models in di erent set up in this thesis. Chapter 1 introduced the concepts and techniques used in the thesis and also provided a summary of the work done. In chapter 2 we considered an M=M=2 queueing model, where one of the two heterogeneous servers takes multiple vacations. We studied the performance of the system with the help of busy period analysis and computation of mean waiting time of a customer in the stationary regime. Conditional stochastic decomposition of queue length was derived. To improve the e ciency of this system we came up with a modi ed model in chapter 3. In this model the vacationing server attends the customers, during vacation at a slower service rate. Chapter 4 analyzed a working vacation queueing model in a more general set up. The introduction of N policy makes this MAP=PH=1 model di erent from all working vacation models available in the literature. A detailed analysis of performance of the model was provided with the help of computation of measures such as mean waiting time of a customer who gets service in normal mode and vacation mode.
Resumo:
Magnetism and magnetic materials have been playing a lead role in improving the quality of life. They are increasingly being used in a wide variety of applications ranging from compasses to modern technological devices. Metallic glasses occupy an important position among magnetic materials. They assume importance both from a scientific and an application point of view since they represent an amorphous form of condensed matter with significant deviation from thermodynamic equilibrium. Metallic glasses having good soft magnetic properties are widely used in tape recorder heads, cores of high-power transformers and metallic shields. Superconducting metallic glasses are being used to produce high magnetic fields and magnetic levitation effect. Upon heat treatment, they undergo structural relaxation leading to subtle rearrangements of constituent atoms. This leads to densification of amorphous phase and subsequent nanocrystallisation. The short-range structural relaxation phenomenon gives rise to significant variations in physical, mechanical and magnetic properties. Magnetic amorphous alloys of Co-Fe exhibit excellent soft magnetic properties which make them promising candidates for applications as transformer cores, sensors, and actuators. With the advent of microminiaturization and nanotechnology, thin film forms of these alloys are sought after for soft under layers for perpendicular recording media. The thin film forms of these alloys can also be used for fabrication of magnetic micro electro mechanical systems (magnetic MEMS). In bulk, they are drawn in the form of ribbons, often by melt spinning. The main constituents of these alloys are Co, Fe, Ni, Si, Mo and B. Mo acts as the grain growth inhibitor and Si and B facilitate the amorphous nature in the alloy structure. The ferromagnetic phases such as Co-Fe and Fe-Ni in the alloy composition determine the soft magnetic properties. The grain correlation length, a measure of the grain size, often determines the soft magnetic properties of these alloys. Amorphous alloys could be restructured in to their nanocrystalline counterparts by different techniques. The structure of nanocrystalline material consists of nanosized ferromagnetic crystallites embedded in an amorphous matrix. When the amorphous phase is ferromagnetic, they facilitate exchange coupling between nanocrystallites. This exchange coupling results in the vanishing of magnetocrystalline anisotropy which improves the soft magnetic properties. From a fundamental perspective, exchange correlation length and grain size are the deciding factors that determine the magnetic properties of these nanocrystalline materials. In thin films, surfaces and interfaces predominantly decides the bulk property and hence tailoring the surface roughness and morphology of the film could result in modified magnetic properties. Surface modifications can be achieved by thermal annealing at various temperatures. Ion irradiation is an alternative tool to modify the surface/structural properties. The surface evolution of a thin film under swift heavy ion (SHI) irradiation is an outcome of different competing mechanism. It could be sputtering induced by SHI followed by surface roughening process and the material transport induced smoothening process. The impingement of ions with different fluence on the alloy is bound to produce systematic microstructural changes and this could effectively be used for tailoring magnetic parameters namely coercivity, saturation magnetization, magnetic permeability and remanence of these materials. Swift heavy ion irradiation is a novel and an ingenious tool for surface modification which eventually will lead to changes in the bulk as well as surface magnetic property. SHI has been widely used as a method for the creation of latent tracks in thin films. The bombardment of SHI modifies the surfaces or interfaces or creates defects, which induces strain in the film. These changes will have profound influence on the magnetic anisotropy and the magnetisation of the specimen. Thus inducing structural and morphological changes by thermal annealing and swift heavy ion irradiation, which in turn induce changes in the magnetic properties of these alloys, is one of the motivation of this study. Multiferroic and magneto-electrics is a class of functional materials with wide application potential and are of great interest to material scientists and engineers. Magnetoelectric materials combine both magnetic as well as ferroelectric properties in a single specimen. The dielectric properties of such materials can be controlled by the application of an external magnetic field and the magnetic properties by an electric field. Composites with magnetic and piezo/ferroelectric individual phases are found to have strong magnetoelectric (ME) response at room temperature and hence are preferred to single phasic multiferroic materials. Currently research in this class of materials is towards optimization of the ME coupling by tailoring the piezoelectric and magnetostrictive properties of the two individual components of ME composites. The magnetoelectric coupling constant (MECC) (_ ME) is the parameter that decides the extent of interdependence of magnetic and electric response of the composite structure. Extensive investigates have been carried out in bulk composites possessing on giant ME coupling. These materials are fabricated by either gluing the individual components to each other or mixing the magnetic material to a piezoelectric matrix. The most extensively investigated material combinations are Lead Zirconate Titanate (PZT) or Lead Magnesium Niobate-Lead Titanate (PMNPT) as the piezoelectric, and Terfenol-D as the magnetostrictive phase and the coupling is measured in different configurations like transverse, longitudinal and inplane longitudinal. Fabrication of a lead free multiferroic composite with a strong ME response is the need of the hour from a device application point of view. The multilayer structure is expected to be far superior to bulk composites in terms of ME coupling since the piezoelectric (PE) layer can easily be poled electrically to enhance the piezoelectricity and hence the ME effect. The giant magnetostriction reported in the Co-Fe thin films makes it an ideal candidate for the ferromagnetic component and BaTiO3 which is a well known ferroelectric material with improved piezoelectric properties as the ferroelectric component. The multilayer structure of BaTiO3- CoFe- BaTiO3 is an ideal system to understand the underlying fundamental physics behind the ME coupling mechanism. Giant magnetoelectric coupling coefficient is anticipated for these multilayer structures of BaTiO3-CoFe-BaTiO3. This makes it an ideal candidate for cantilever applications in magnetic MEMS/NEMS devices. SrTiO3 is an incipient ferroelectric material which is paraelectric up to 0K in its pure unstressed form. Recently few studies showed that ferroelectricity can be induced by application of stress or by chemical / isotopic substitution. The search for room temperature magnetoelectric coupling in SrTiO3-CoFe-SrTiO3 multilayer structures is of fundamental interest. Yet another motivation of the present work is to fabricate multilayer structures consisting of CoFe/ BaTiO3 and CoFe/ SrTiO3 for possible giant ME coupling coefficient (MECC) values. These are lead free and hence promising candidates for MEMS applications. The elucidation of mechanism for the giant MECC also will be the part of the objective of this investigation.
Resumo:
The Kerala model of development mostly bypassed the fishing community, as the fishers form the main miserable groups with respect to many of the socio-economic and quality of life indicators. Modernization drive in the fishing sector paradoxically turns to marginalization drives as far as the traditional fishers in Kerala are concerned. Subsequent management and resource recuperation drives too seemed to be detrimental to the local fishing community. Though SHGs and cooperatives had helped in overcoming many of the maladies in most of the sectors in Kerala in terms of livelihood and employment in the 1980s, the fishing sector by that time had been moving ahead with mechanization and export euphoria and hence it bypassed the fishing sector. Though it has not helped the fishing sector in the initial stages, but because of necessity, it soon has become a vibrant livelihood and employment force in the coastal economy of Kerala. Initial success made it to link this with the governmental cooperative set up and soon SHGs and Cooperatives become reinforcing forces for the inclusive development of the real fishers.The fisheries sector in Kerala has undergone drastic changes with the advent of globalised economy. The traditional fisher folk are one of the most marginalized communities in the state and are left out of the overall development process mainly due to the marginalization of this community both in the sea and in the market due to modernization and mechanization of the sector. Mechanization opened up the sector a great deal as it began to attract people belonging to non-fishing community as moneylenders, boat owners, employers and middle men which often resulted in conflicts between traditional and mechanized fishermen. These factors, together with resource depletion resulted in the backwardness experienced by the traditional fishermen compared to other communities who were reaping the benefits of the overall development scenario.The studies detailing the activities and achievements of fisher folks via Self Help Groups (SHGs) and the cooperative movement in coastal Kerala are scant. The SHGs through cooperatives have been effective in livelihood security, poverty alleviation and inclusive development of the fisher folk (Rajasenan and Rajeev, 2012). The SHGs have a greater role to play as estimated fall in demand for marine products in international markets, which may result in reduction of employment opportunities in fish processing, peeling, etc. Also, technological advancement has made them unskilled to work in this sector making them outliers in the overall development process resulting in poor quality of physical and social infrastructure. Hence, it is all the more important to derive a strategy and best practice methods for the effective functioning of these SHGs so that the
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.