944 resultados para Real Root Isolation Methods
Resumo:
Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.
Resumo:
Les personnes âgées occupent une proportion importante des lits dans les centres hospitaliers de soins de courte durée québécois et leur présence est en augmentation. Parmi ces personnes, plusieurs présentent un état confusionnel aigu (ÉCA), voire un délirium, au cours de leur hospitalisation. Les soins infirmiers qu’elles requièrent sont complexes et les études portant sur la formation continue des infirmières tiennent peu compte de cette réalité. Les approches utilisées dans les études sont surtout centrées sur l’acquisition de connaissances et d’habiletés techniques et négligent les aspects créatifs, relationnels, critiques, réflexifs et éthiques essentiels à une prestation de soins infirmiers de qualité. On y retrouve également peu d’informations sur la conception de l’intervention éducative et sur son évaluation. C’est dans cette perspective que le but de l’étude était de mettre à l’essai et d’évaluer qualitativement le processus et les résultats d’une intervention éducative auprès d’infirmières soignant des personnes âgées hospitalisées en ÉCA. Plus particulièrement, ce sont les conditions facilitant et contraignant l’intervention, les aspects les plus utiles pour la pratique, les différents savoirs exprimés et les résultats de soins perçus par les participantes qui étaient recherchés. C’est en s’inspirant de la pédagogie narrative de Diekelmann (2001) et des savoirs infirmiers de Chinn et Kramer (2008) que l’intervention a été conçue et évaluée. La description d’expériences de soins vécues par les infirmières et la création d’un environnement d’apprentissage favorisant l’interprétation, en groupe, de ces expériences à l’aide d’informations théoriques et empiriques caractérisent la pédagogie narrative à la base de cette intervention. Pour atteindre le but, une étude de cas a été retenue. La stratégie d’échantillonnage par choix raisonné a permis de sélectionner des participantes travaillant sur les trois quarts de travail, ayant différents niveaux de formation et une expérience comme infirmière variant de huit mois à 36 ans, dont l’âge variait de 23 à 64 ans. L’échantillon, composé de 15 infirmières soignant fréquemment des personnes en ÉCA et travaillant sur des unités de soins chirurgicaux cardiologiques et orthopédiques, était réparti dans trois groupes égaux de cinq participantes. L’intervention éducative comprenait quatre journées de formation offertes à intervalle de trois semaines pour une durée totale de 12 semaines. Au cours de chacune de ces journées, les participantes devaient effectuer un travail écrit réflexif concernant une situation de soins vécue avec une personne en ÉCA et, par la suite, partager, interpréter et s'interroger sur ces situations en faisant des liens avec des informations théoriques et empiriques sur l’ÉCA dans le cadre d’un atelier de groupe. Une triangulation de méthodes de collecte de données, incluant des notes de terrain de l’investigatrice, les travaux réflexifs des participantes, des questionnaires complétés par les participantes après chaque journée de formation et une entrevue individuelle avec chaque participante réalisée par une intervieweuse externe à la fin de l’intervention, a permis de décrire la mise à l’essai de l’intervention et d’évaluer qualitativement son processus et ses résultats. Une analyse de contenu des données qualitatives intra et inter participante a été effectuée. La mise à l’essai de l’intervention a mis en évidence l’importance de tenir compte des besoins variés des participantes et d’ajuster l’intervention éducative d’un groupe à l’autre, notamment eu égard aux contenus théoriques et empiriques sur l’ECA. L’évaluation du processus souligne que l’intervention a été facilitée par les attitudes et la diversité des expériences des participantes, ainsi que par l’utilisation de situations de soins réelles permettant d’intégrer la théorie dans la pratique. L’accès à de nouveaux outils d’évaluation des personnes en ÉCA a été perçu particulièrement utile par les participantes. Quant à l’évaluation des résultats, elle a permis de rendre visibles de nombreux savoirs empiriques, éthiques et esthétiques et certains savoirs personnels et émancipatoires exprimés par les participantes. Les participantes ont, entre autres, réalisé des évaluations plus approfondies des personnes en ÉCA, ont réduit ou évité les mesures de contrôle physiques des personnes atteintes et ont impliqué davantage les familles dans les soins. L’évaluation a aussi permis de décrire certains résultats perçus par les participantes sur le bien-être physique et psychologique des personnes soignées et sur les familles. Les personnes en ECA étaient, entre autres, rassurées, plus calmes et soulagées et les familles moins inquiètes et davantage impliquées dans les soins. Les résultats de l’étude mettent en évidence l’applicabilité d’une intervention éducative narrative basée sur un cadre de référence en sciences infirmières et son utilité pour la formation continue dans les milieux de soins. L’étude ouvre la porte à des possibilités de transfert de l’intervention à d’autres populations d’infirmières soignant des clientèles ayant des besoins complexes, notamment en gériatrie, en oncologie ou en soins palliatifs. Des études visant à évaluer l’intervention auprès d’un échantillon plus important et à explorer ses effets sur les personnes soignées et leurs familles sont proposées.
Resumo:
Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.
Resumo:
Depuis les années quatre-vingt-dix Cuba développe et commercialise des vaccins et méthodes en biotechnologies médicales dont certains sont des premières mondiales. L'île est alors encore considérée comme un pays en voie de développement et est la cible d’un embargo imposé par les États-Unis depuis plus de trente ans. Or les biotechnologies sont une science aussi coûteuse en matériel qu'en ressources humaines très spécialisées et elles sont de ce fait réservées aux pays de la sphère scientifique centrale. Ces réussites suggèrent la mise en place d'un potentiel scientifique et technique réel autant qu'elles peuvent constituer un artéfact dans un secteur moins développé ou moins pérenne qu'il n'y paraît. Quel est le vrai visage des biotechnologies cubaines au milieu des années deux-mille ? C'est à cette question que tente de répondre cette étude. Elle consiste dans un premier temps à retracer les paramètres du développement des institutions de recherche en biotechnologies dans un contexte qui connaît peu de répit depuis l'avènement de la Révolution : indicateurs socio-économiques bas, embargo, planification socialiste, isolement géopolitique, crises économiques mondiales, dissolution du bloc soviétique... Elle se poursuit avec une analyse bibliométrique permettant de donner un visage quantitatif des réalisations cubaines dans le domaine : au-delà des réalisations mises de l'avant, dans quelles revues et dans quels domaines les chercheurs cubains en biotechnologie publient-ils ? Avec quels pays collaborent-ils et par quels pays sont-ils cités ? Quelle est leur place dans le monde ? Nous exploiterons l'ensemble de ces indicateurs et de ces éléments historiques pour conclure, au tournant des années deux-mille, à l'existence d'un potentiel scientifique et technique développé mais d'une science aux ressources maigres constamment tenue de rapporter un certain capital économique aussi bien que politique. En cohérence avec la dialectique socialiste propre à l'île, les sciences cubaines, depuis 1959, ne constituent jamais une fin en soi mais restent un moyen politique et social. En 2006 elles le sont encore. Malgré leurs réalisations elles touchent aux limites de la planification et réclament leur indépendance face au politique afin d'exploiter pleinement leur potentiel, bien réel.
Resumo:
The present research problem is to study the existing encryption methods and to develop a new technique which is performance wise superior to other existing techniques and at the same time can be very well incorporated in the communication channels of Fault Tolerant Hard Real time systems along with existing Error Checking / Error Correcting codes, so that the intention of eaves dropping can be defeated. There are many encryption methods available now. Each method has got it's own merits and demerits. Similarly, many crypt analysis techniques which adversaries use are also available.
Resumo:
Machine tool chatter is an unfavorable phenomenon during metal cutting, which results in heavy vibration of cutting tool. With increase in depth of cut, the cutting regime changes from chatter-free cutting to one with chatter. In this paper, we propose the use of permutation entropy (PE), a conceptually simple and computationally fast measurement to detect the onset of chatter from the time series using sound signal recorded with a unidirectional microphone. PE can efficiently distinguish the regular and complex nature of any signal and extract information about the dynamics of the process by indicating sudden change in its value. Under situations where the data sets are huge and there is no time for preprocessing and fine-tuning, PE can effectively detect dynamical changes of the system. This makes PE an ideal choice for online detection of chatter, which is not possible with other conventional nonlinear methods. In the present study, the variation of PE under two cutting conditions is analyzed. Abrupt variation in the value of PE with increase in depth of cut indicates the onset of chatter vibrations. The results are verified using frequency spectra of the signals and the nonlinear measure, normalized coarse-grained information rate (NCIR).
Resumo:
Cochin estuarine system is among the most productive aquatic environment along the Southwest coast of India, exhibits unique ecological features and possess greater socioeconomic relevance. Serious investigations carried out during the past decades on the hydro biogeochemical variables pointed out variations in the health and ecological functioning of this ecosystem. Characterisation of organic matter in the estuary has been attempted in many investigations. But detailed studies covering the degradation state of organic matter using molecular level approach is not attempted. The thesis entitled Provenance, Isolation and Characterisation of Organic Matter in the Cochin Estuarine Sediment-“ A Diagenetic Amino Acid Marker Scenario” is an integrated approach to evaluate the source, quantity, quality, and degradation state of the organic matter in the surface sediments of Cochin estuarine system with the combined application of bulk and molecular level tools. Sediment and water samples from nine stations situated at Cochin estuary were collected in five seasonal sampling campaigns, for the biogeochemical assessment and their distribution pattern of sedimentary organic matter. The sampling seasons were described and abbreviated as follows: April- 2009 (pre monsoon: PRM09), August-2009 (monsoon: MON09), January-2010 (post monsoon: POM09), April-2010 (pre monsoon: PRM10) and September- 2012 (monsoon: MON12). In order to evaluate the general environmental conditions of the estuary, water samples were analysed for water quality parameters, chlorophyll pigments and nutrients by standard methods. Investigations suggested the fact that hydrographical variables and nutrients in Cochin estuary supports diverse species of flora and fauna. Moreover the sedimentary variables such as pH, Eh, texture, TOC, fractions of nitrogen and phosphorous were determined to assess the general geochemical setting as well as redox status. The periodically fluctuating oxic/ anoxic conditions and texture serve as the most significant variables controlling other variables of the aquatic environment. The organic matter in estuary comprise of a complex mixture of autochthonous as well as allochthonous materials. Autochthonous input is limited or enhanced by the nutrient elements like N and P (in their various fractions), used as a tool to evaluate their bioavailability. Bulk parameter approach like biochemical composition, stoichiometric elemental ratios and stable carbon isotope ratio was also employed to assess the quality and quantity of sedimentary organic matter in the study area. Molecular level charactersation of free sugars and amino acids were carried out by liquid chromatographic techniques. Carbohydrates are the products of primary production and their occurrence in sediments as free sugars can provide information on the estuarine productivity. Amino acid biogeochemistry provided implications on the system productivity, nature of organic matter as well as degradation status of the sedimentary organic matter in the study area. The predominance of carbohydrates over protein indicated faster mineralisation of proteinaceous organic matter in sediments and the estuary behaves as a detrital trap for the accumulation of aged organic matter. The higher lipid content and LPD/CHO ratio pointed towards the better food quality that supports benthic fauna and better accumulation of lipid compounds in the sedimentary environment. Allochthonous addition of carbohydrates via terrestrial run off was responsible for the lower PRT/CHO ratio estimated in thesediments and the lower ratios also denoted a detrital heterotrophic environment. Biopolymeric carbon and the algal contribution to BPC provided important information on the better understanding the trophic state of the estuarine system and the higher values of chlorophyll-a to phaeophytin ratio indicated deposition of phytoplankton to sediment at a rapid rate. The estimated TOC/TN ratios implied the combined input of both terrestrial and autochthonous organic matter to sedimentsAmong the free sugars, depleted levels of glucose in sediments in most of the stations and abundance of mannose at station S5 was observed during the present investigation. Among aldohexoses, concentration of galactose was found to be higher in most of the stationsRelative abundance of AAs in the estuarine sediments based on seasons followed the trend: PRM09-Leucine > Phenylalanine > Argine > Lysine, MON09-Lysine > Aspartic acid > Histidine > Tyrosine > Phenylalanine, POM09-Lysine > Histadine > Phenyalanine > Leucine > Methionine > Serine > Proline > Aspartic acid, PRM10-Valine > Aspartic acid > Histidine > Phenylalanine > Serine > Proline, MON12-Lysine > Phenylalanine > Aspartic acid > Histidine > Valine > Tyrsine > MethionineThe classification of study area into three zones based on salinity was employed in the present study for the sake of simplicity and generalized interpretations. The distribution of AAs in the three zones followed the trend: Fresh water zone (S1, S2):- Phenylalanine > Lysine > Aspartic acid > Methionine > Valine ῀ Leucine > Proline > Histidine > Glycine > Serine > Glutamic acid > Tyrosine > Arginine > Alanine > Threonine > Cysteine > Isoleucine. Estuarine zone (S3, S4, S5, S6):- Lysine > Aspartic acid > Phenylalanine > Leucine > Valine > Histidine > Methionine > Tyrosine > Serine > Glutamic acid > Proline > Glycine > Arginine > Alanine > Isoleucine > Cysteine > Threonine. Riverine /Industrial zone (S7, S8, S9):- Phenylalanine > Lysine > Aspartic acid > Histidine > Serine > Arginine > Tyrosine > Leucine > Methionine > Glutamic acid > Alanine > Glycine > Cysteine > Proline > Isoleucine > Threonine > Valine. The abundance of AAs like glutamic acid, aspartic acid, isoleucine, valine, tyrosine, and phenylalanine in sediments of the study area indicated freshly derived organic matter.
Resumo:
The resurgence of the enteric pathogen Vibrio cholerae, the causative organism of epidemic cholera, remains a major health problem in many developing countries like India. The southern Indian state of Kerala is endemic to cholera. The outbreaks of cholera follow a seasonal pattern in regions of endemicity. Marine aquaculture settings and mangrove environments of Kerala serve as reservoirs for V. cholerae. The non-O1/non-O139 environmental isolates of V. cholerae with incomplete ‘virulence casette’ are to be dealt with caution as they constitute a major reservoir of diverse virulence genes in the marine environment and play a crucial role in pathogenicity and horizontal gene transfer. The genes coding cholera toxin are borne on, and can be infectiously transmitted by CTXΦ, a filamentous lysogenic vibriophages. Temperate phages can provide crucial virulence and fitness factors affecting cell metabolism, bacterial adhesion, colonization, immunity, antibiotic resistance and serum resistance. The present study was an attempt to screen the marine environments like aquafarms and mangroves of coastal areas of Alappuzha and Cochin, Kerala for the presence of lysogenic V. cholerae, to study their pathogenicity and also gene transfer potential. Phenotypic and molecular methods were used for identification of isolates as V. cholerae. The thirty one isolates which were Gram negative, oxidase positive, fermentative, with or without gas production on MOF media and which showed yellow coloured colonies on TCBS (Thiosulfate Citrate Bile salt Sucrose) agar were segregated as vibrios. Twenty two environmental V. cholerae strains of both O1 and non- O1/non-O139 serogroups on induction with mitomycin C showed the presence of lysogenic phages. They produced characteristic turbid plaques in double agar overlay assay using the indicator strain V. cholerae El Tor MAK 757. PCR based molecular typing with primers targeting specific conserved sequences in the bacterial genome, demonstrated genetic diversity among these lysogen containing non-O1 V. cholerae . Polymerase chain reaction was also employed as a rapid screening method to verify the presence of 9 virulence genes namely, ctxA, ctxB, ace, hlyA, toxR, zot,tcpA, ninT and nanH, using gene specific primers. The presence of tcpA gene in ALPVC3 was alarming, as it indicates the possibility of an epidemic by accepting the cholera. Differential induction studies used ΦALPVC3, ΦALPVC11, ΦALPVC12 and ΦEKM14, underlining the possibility of prophage induction in natural ecosystems, due to abiotic factors like antibiotics, pollutants, temperature and UV. The efficiency of induction of prophages varied considerably in response to the different induction agents. The growth curve of lysogenic V. cholerae used in the study drastically varied in the presence of strong prophage inducers like antibiotics and UV. Bacterial cell lysis was directly proportional to increase in phage number due to induction. Morphological characterization of vibriophages by Transmission Electron Microscopy revealed hexagonal heads for all the four phages. Vibriophage ΦALPVC3 exhibited isometric and contractile tails characteristic of family Myoviridae, while phages ΦALPVC11 and ΦALPVC12 demonstrated the typical hexagonal head and non-contractile tail of family Siphoviridae. ΦEKM14, the podophage was distinguished by short non-contractile tail and icosahedral head. This work demonstrated that environmental parameters can influence the viability and cell adsorption rates of V. cholerae phages. Adsorption studies showed 100% adsorption of ΦALPVC3 ΦALPVC11, ΦALPVC12 and ΦEKM14 after 25, 30, 40 and 35 minutes respectively. Exposure to high temperatures ranging from 50ºC to 100ºC drastically reduced phage viability. The optimum concentration of NaCl required for survival of vibriophages except ΦEKM14 was 0.5 M and that for ΦEKM14 was 1M NaCl. Survival of phage particles was maximum at pH 7-8. V. cholerae is assumed to have existed long before their human host and so the pathogenic clones may have evolved from aquatic forms which later colonized the human intestine by progressive acquisition of genes. This is supported by the fact that the vast majority of V. cholerae strains are still part of the natural aquatic environment. CTXΦ has played a critical role in the evolution of the pathogenicity of V. cholerae as it can transmit the ctxAB gene. The unusual transformation of V. cholerae strains associated with epidemics and the emergence of V. cholera O139 demonstrates the evolutionary success of the organism in attaining greater fitness. Genetic changes in pathogenic V. cholerae constitute a natural process for developing immunity within an endemically infected population. The alternative hosts and lysogenic environmental V. cholerae strains may potentially act as cofactors in promoting cholera phage ‘‘blooms’’ within aquatic environments, thereby influencing transmission of phage sensitive, pathogenic V. cholerae strains by aquatic vehicles. Differential induction of the phages is a clear indication of the impact of environmental pollution and global changes on phage induction. The development of molecular biology techniques offered an accessible gateway for investigating the molecular events leading to genetic diversity in the marine environment. Using nucleic acids as targets, the methods of fingerprinting like ERIC PCR and BOX PCR, revealed that the marine environment harbours potentially pathogenic group of bacteria with genetic diversity. The distribution of virulence associated genes in the environmental isolates of V. cholerae provides tangible material for further investigation. Nucleotide and protein sequence analysis alongwith protein structure prediction aids in better understanding of the variation inalleles of same gene in different ecological niche and its impact on the protein structure for attaining greater fitness of pathogens. The evidences of the co-evolution of virulence genes in toxigenic V. cholerae O1 from different lineages of environmental non-O1 strains is alarming. Transduction studies would indicate that the phenomenon of acquisition of these virulence genes by lateral gene transfer, although rare, is not quite uncommon amongst non-O1/non-O139 V. cholerae and it has a key role in diversification. All these considerations justify the need for an integrated approach towards the development of an effective surveillance system to monitor evolution of V. cholerae strains with epidemic potential. Results presented in this study, if considered together with the mechanism proposed as above, would strongly suggest that the bacteriophage also intervenes as a variable in shaping the cholera bacterium, which cannot be ignored and hinting at imminent future epidemics.
Resumo:
Es werde das lineare Regressionsmodell y = X b + e mit den ueblichen Bedingungen betrachtet. Weiter werde angenommen, dass der Parametervektor aus einem Ellipsoid stammt. Ein optimaler Schaetzer fuer den Parametervektor ist durch den Minimax-Schaetzer gegeben. Nach der entscheidungstheoretischen Formulierung des Minimax-Schaetzproblems werden mit dem Bayesschen Ansatz, Spektralen Methoden und der Darstellung von Hoffmann und Laeuter Wege zur Bestimmung des Minimax- Schaetzers dargestellt und in Beziehung gebracht. Eine Betrachtung von Modellen mit drei Einflussgroeßen und gemeinsamen Eigenvektor fuehrt zu einer Strukturierung des Problems nach der Vielfachheit des maximalen Eigenwerts. Die Bestimmung des Minimax-Schaetzers in einem noch nicht geloesten Fall kann auf die Bestimmung einer Nullstelle einer nichtlinearen reellwertigen Funktion gefuehrt werden. Es wird ein Beispiel gefunden, in dem die Nullstelle nicht durch Radikale angegeben werden kann. Durch das Intervallschachtelungs-Prinzip oder Newton-Verfahren ist die numerische Bestimmung der Nullstelle moeglich. Durch Entwicklung einer Fixpunktgleichung aus der Darstellung von Hoffmann und Laeuter war es in einer Simulation moeglich die angestrebten Loesungen zu finden.
Resumo:
Designing is a heterogeneous, fuzzily defined, floating field of various activities and chunks of ideas and knowledge. Available theories about the foundations of designing as presented in "the basic PARADOX" (Jonas and Meyer-Veden 2004) have evoked the impression of Babylonian confusion. We located the reasons for this "mess" in the "non-fit", which is the problematic relation of theories and subject field. There seems to be a comparable interface problem in theory-building as in designing itself. "Complexity" sounds promising, but turns out to be a problematic and not really helpful concept. I will argue for a more precise application of systemic and evolutionary concepts instead, which - in my view - are able to model the underlying generative structures and processes that produce the visible phenomenon of complexity. It does not make sense to introduce a new fashionable meta-concept and to hope for a panacea before having clarified the more basic and still equally problematic older meta-concepts. This paper will take one step away from "theories of what" towards practice and doing and try to have a closer look at existing process models or "theories of how" to design instead. Doing this from a systemic perspective leads to an evolutionary view of the process, which finally allows to specify more clearly the "knowledge gaps" inherent in the design process. This aspect has to be taken into account as constitutive of any attempt at theory-building in design, which can be characterized as a "practice of not-knowing". I conclude, that comprehensive "unified" theories, or methods, or process models run aground on the identified knowledge gaps, which allow neither reliable models of the present, nor reliable projections into the future. Consolation may be found in performing a shift from the effort of adaptation towards strategies of exaptation, which means the development of stocks of alternatives for coping with unpredictable situations in the future.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Sweden’s recent report on Urban Sustainable Development calls out a missing link between the urban design process and citizens. This paper investigates if engaging citizens as design agents by providing a platform for alternate participation can bridge this gap, through the transfer of spatial agency and new modes of critical cartography. To assess whether this is the case, the approaches are applied to Stockholm’s urban agriculture movement in a staged intervention. The aim of the intervention was to engage citizens in locating existing and potential places for growing food and in gathering information from these sites to inform design in urban agriculture. The design-based methodologies incorporated digital and bodily interfaces for this cartography to take place. The Urban CoMapper, a smartphone digital app, captured real-time perspectives through crowd-sourced mapping. In the bodily cartography, participant’s used their bodies to trace the site and reveal their sensorial perceptions. The data gathered from these approaches gave way to a mode of artistic research for exploring urban agriculture, along with inviting artists to be engaged in the dialogues. In sum, results showed that a combination of digital and bodily approaches was necessary for a critical cartography if we want to engage citizens holistically into the urban design process as spatial agents informing urban policy. Such methodologies formed a reflective interrogation and encouraged a new intimacy with nature, in this instance, one that can transform our urban conduct by questioning our eating habits: where we get our food from and how we eat it seasonally.
Resumo:
Since dwarf napiergrass (Pennisetum purpureum Schumach.) must be propagated vegetatively due to lack of viable seeds, root splitting and stem cuttings are generally used to obtain true-to-type plant populations. These ordinary methods are laborious and costly, and are the greatest barriers for expanding the cultivation area of this crop. The objectives of this research were to develop nursery production of dwarf napiergrass in cell trays and to compare the efficiency of mechanical versus manual methods for cell-tray propagation and field transplanting. After defoliation of herbage either by a sickle (manually) or hand-mowing machine, every potential aerial tiller bud was cut to a single one for transplanting into cell trays as stem cuttings and placed in a glasshouse over winter. The following June, nursery plants were trimmed to a 25–cm length and transplanted in an experimental field (sandy soil) with 20,000 plants ha^(−1) either by shovel (manually) or Welsh onion planter. Labour time was recorded for each process. The manual defoliation of plants required 44% more labour time for preparing the stem cuttings (0.73 person-min. stemcutting^(−1)) compared to using hand-mowing machinery (0.51 person-min. stem-cutting^(−1)). In contrast, labour time for transplanting required an extra 0.30 person-min. m^(−2) (14%) using the machinery compared to manual transplanting, possibly due to the limited plot size for machinery operation. The transplanting method had no significant effect on plant establishment or plant growth, except for herbage yield 110 days after planting. Defoliation of herbage by machinery, production using a cell-tray nursery and mechanical transplanting reduced the labour intensity of dwarf napiergrass propagation.
Resumo:
In this report, a face recognition system that is capable of detecting and recognizing frontal and rotated faces was developed. Two face recognition methods focusing on the aspect of pose invariance are presented and evaluated - the whole face approach and the component-based approach. The main challenge of this project is to develop a system that is able to identify faces under different viewing angles in realtime. The development of such a system will enhance the capability and robustness of current face recognition technology. The whole-face approach recognizes faces by classifying a single feature vector consisting of the gray values of the whole face image. The component-based approach first locates the facial components and extracts them. These components are normalized and combined into a single feature vector for classification. The Support Vector Machine (SVM) is used as the classifier for both approaches. Extensive tests with respect to the robustness against pose changes are performed on a database that includes faces rotated up to about 40 degrees in depth. The component-based approach clearly outperforms the whole-face approach on all tests. Although this approach isproven to be more reliable, it is still too slow for real-time applications. That is the reason why a real-time face recognition system using the whole-face approach is implemented to recognize people in color video sequences.
Resumo:
In most psychological tests and questionnaires, a test score is obtained by taking the sum of the item scores. In virtually all cases where the test or questionnaire contains multidimensional forced-choice items, this traditional scoring method is also applied. We argue that the summation of scores obtained with multidimensional forced-choice items produces uninterpretable test scores. Therefore, we propose three alternative scoring methods: a weak and a strict rank preserving scoring method, which both allow an ordinal interpretation of test scores; and a ratio preserving scoring method, which allows a proportional interpretation of test scores. Each proposed scoring method yields an index for each respondent indicating the degree to which the response pattern is inconsistent. Analysis of real data showed that with respect to rank preservation, the weak and strict rank preserving method resulted in lower inconsistency indices than the traditional scoring method; with respect to ratio preservation, the ratio preserving scoring method resulted in lower inconsistency indices than the traditional scoring method