972 resultados para Constraint qualifications
Resumo:
Design of a compact microstrip-fed ultra-wideband antenna suitable for USB dongle and other such space constraint applications is presented. The structure consists of a pentagonal monopole element and a modified ground plane that gives an impedance bandwidth from 2.8 to 12 GHz. Radiation patterns are stable and omni-directional throughout the band with an average gain of 2.84 dBi. The antenna occupies only 11 × 30 mm2 on FR4 substrate with permittivity 4.4.
Resumo:
Màster Oficial en Gestió del Patrimoni Cultural
Resumo:
The proliferation of wireless sensor networks in a large spectrum of applications had been spurered by the rapid advances in MEMS(micro-electro mechanical systems )based sensor technology coupled with low power,Low cost digital signal processors and radio frequency circuits.A sensor network is composed of thousands of low cost and portable devices bearing large sensing computing and wireless communication capabilities. This large collection of tiny sensors can form a robust data computing and communication distributed system for automated information gathering and distributed sensing.The main attractive feature is that such a sensor network can be deployed in remote areas.Since the sensor node is battery powered,all the sensor nodes should collaborate together to form a fault tolerant network so as toprovide an efficient utilization of precious network resources like wireless channel,memory and battery capacity.The most crucial constraint is the energy consumption which has become the prime challenge for the design of long lived sensor nodes.
Resumo:
Computational Biology is the research are that contributes to the analysis of biological data through the development of algorithms which will address significant research problems.The data from molecular biology includes DNA,RNA ,Protein and Gene expression data.Gene Expression Data provides the expression level of genes under different conditions.Gene expression is the process of transcribing the DNA sequence of a gene into mRNA sequences which in turn are later translated into proteins.The number of copies of mRNA produced is called the expression level of a gene.Gene expression data is organized in the form of a matrix. Rows in the matrix represent genes and columns in the matrix represent experimental conditions.Experimental conditions can be different tissue types or time points.Entries in the gene expression matrix are real values.Through the analysis of gene expression data it is possible to determine the behavioral patterns of genes such as similarity of their behavior,nature of their interaction,their respective contribution to the same pathways and so on. Similar expression patterns are exhibited by the genes participating in the same biological process.These patterns have immense relevance and application in bioinformatics and clinical research.Theses patterns are used in the medical domain for aid in more accurate diagnosis,prognosis,treatment planning.drug discovery and protein network analysis.To identify various patterns from gene expression data,data mining techniques are essential.Clustering is an important data mining technique for the analysis of gene expression data.To overcome the problems associated with clustering,biclustering is introduced.Biclustering refers to simultaneous clustering of both rows and columns of a data matrix. Clustering is a global whereas biclustering is a local model.Discovering local expression patterns is essential for identfying many genetic pathways that are not apparent otherwise.It is therefore necessary to move beyond the clustering paradigm towards developing approaches which are capable of discovering local patterns in gene expression data.A biclusters is a submatrix of the gene expression data matrix.The rows and columns in the submatrix need not be contiguous as in the gene expression data matrix.Biclusters are not disjoint.Computation of biclusters is costly because one will have to consider all the combinations of columans and rows in order to find out all the biclusters.The search space for the biclustering problem is 2 m+n where m and n are the number of genes and conditions respectively.Usually m+n is more than 3000.The biclustering problem is NP-hard.Biclustering is a powerful analytical tool for the biologist.The research reported in this thesis addresses the problem of biclustering.Ten algorithms are developed for the identification of coherent biclusters from gene expression data.All these algorithms are making use of a measure called mean squared residue to search for biclusters.The objective here is to identify the biclusters of maximum size with the mean squared residue lower than a given threshold. All these algorithms begin the search from tightly coregulated submatrices called the seeds.These seeds are generated by K-Means clustering algorithm.The algorithms developed can be classified as constraint based,greedy and metaheuristic.Constarint based algorithms uses one or more of the various constaints namely the MSR threshold and the MSR difference threshold.The greedy approach makes a locally optimal choice at each stage with the objective of finding the global optimum.In metaheuristic approaches particle Swarm Optimization(PSO) and variants of Greedy Randomized Adaptive Search Procedure(GRASP) are used for the identification of biclusters.These algorithms are implemented on the Yeast and Lymphoma datasets.Biologically relevant and statistically significant biclusters are identified by all these algorithms which are validated by Gene Ontology database.All these algorithms are compared with some other biclustering algorithms.Algorithms developed in this work overcome some of the problems associated with the already existing algorithms.With the help of some of the algorithms which are developed in this work biclusters with very high row variance,which is higher than the row variance of any other algorithm using mean squared residue, are identified from both Yeast and Lymphoma data sets.Such biclusters which make significant change in the expression level are highly relevant biologically.
Resumo:
Aquaculture has developed to become one of the fastest growing food producing sectors in the world.Today India is one among the major shrimp producing countries in the world.There are extensive and intensive shrimp culture practices. In extensive shrimp culture, shrimps are stocked at low densities (< 25 PLs m'2)in large ponds or tidal enclosures in which little or no management is exercised or possible. Farmers depend almost entirely on natural conditions in extensive cultures. Intensive shrimp culture is carried out in high densities (>200 PLs m'2). Much of the world shrimp production still comes from extensive culture.There is a growing demand for fish and marine products for human and animal consumption. This demand has led to rapid growth of aquaculture, which some times has been accompanied by ecological impacts and economic loss due to diseases. The expansion of shrimp culture always accompanies local environmental degradation and occurrence of diseases.Disease out breaks is recognised as a significant constraint to aquaculture production. Environmental factors, water quality, pollution due to effluent discharge and pathogenic invasion due to vertical and horizontal transmission are the main causes of shrimp disease out breaks. Nutritional imbalance, toxicant and other pollutants also account for the onset of diseases. pathogens include viruses, bacteria, fungi and parasites.Viruses are the most economically significant pathogens of the cultured shrimps world wide. Disease control in shrimp aquaculture should focus first on preventive measures for eliminating disease promoting factors.ln order to design prophylactic and proactive measures against shrimp diseases, it is mandatory to understand the immune make up of the cultivable species, its optimum culture conditions and the physico chemical parameters of the rearing environment. It has been proven beyond doubt that disease is an end result of complex interaction of environment, pathogen and the host animal. The aquatic environment is abounded with infectious microbes.The transmission of disease in this environment is extremely easy, especially under dense, culture conditions. Therefore, a better understanding of the immune responses of the cultured animal in relation to its environmental alterations and microbial invasions is essential indevising strategic measures against aquaculture loss due to diseases. This study accentuate the importance of proper and regular health monitoring in shrimps employing the most appropriate haematological biomarkers for application of suitable prophylactic measures in order to avoid serious health hazards in shrimp culture systems.
Resumo:
In India scientific commercial farming of Macrobrachium is yet to get a start, the major constraint being the lack of seed. Seed collection from the natural sources alone may not be sufficient, and in such cases seed production in hatcheries is inevitable. This necessitates knowledge of the reproductive biology of the species technology development for brood stock and larval rearing, and the optimum conditions required for larval development to undertake large scale seed production.The present study was taken up with the major objectives of developing a proper, simple and feasible technology for the larval rearing of Macrobrachium, with special emphasis on. mass larval rearing suitable for commercial level operations.
Resumo:
Laser-induced damage is the principal limiting constraint in the design and operation of high-power laser systems used in fusion and other high-energy laser applications. Therefore, an understanding of the mechanisms which cause the radiation damage to the components employed in building a laser and a knowledge of the damage threshold of these materials are of great importance in designing a laser system and to operate it without appreciable degradation in performance. This thesis, even though covers three distinct problems for investigations using a dye Q-switched multimode Nd:glass laser operating at 1062 nm and emitting 25 ns (FWHM) pulses, lays its main thrust on damage threshold studies on thin films. Using the same glass laser two-photon excited fluorescence in rhodamine 6G and generation and characterisation of a carbon plasma have also been carried out. The thesis is presented in seven chapters.
Resumo:
Aquaculture is a form of agriculture that involves the propagation, cultivation and marketing of aquatic plants and animals in a controlled environment (Swann, 1992). After growing steadily, particularly in the last four decades, aquaculture is for the first time set to contribute half of the fish consumed by the human population worldwide. Given the projected population growth over the next two decades, it is estimated that at least an additional 40 million tonnes of aquatic food will be required by 2030 to maintain the current per capita consumption (FAO, 2006). Capture fisheries and aquaculture supplied the world with about 110 million tonnes of food fish in 2006. Of this total, aquaculture accounted for 47 percent (FAO, 2009). Globally, penaeid shrimp culture ranks sixth in terms of quantity and second in terms of value amongst all taxonomic groups of aquatic animals cultivated (FAO, 2006). In places where warm-water aquaculture was possible black tiger shrimp, Penaeus monodon became the preferred variety of shrimp cultivar owing to its fast growth, seed availability and importantly due to high prices it fetches (Pechmanee, 1997). World shrimp production is dominated by P.monodon, which accounted for more than 50 % of the production in 1999 (FAO, 2000). In the last few years the whiteleg shrimp, Litopenaeus vannamei, has replaced P.monodon in many countries. Indian shrimp culture is dominated by P.monodon with the East Coast accounting for 70% of the production (Hein, 2002). Intensive culture, apart from other problems, results in enhanced susceptibility of the cultured species to diseases (Jory, 1997), which in fact have become the biggest constraint in shrimp aquaculture (FAO, 2003).
Resumo:
The properties of spin-polarized neutron matter are studied at both zero and finite temperature using Skyrme-type interactions. It is shown that the critical density at which ferromagnetism takes place decreases with temperature. This unexpected behavior is associated to an anomalous behavior of the entropy that becomes larger for the polarized phase than for the unpolarized one above a certain critical density. This fact is a consequence of the dependence of the entropy on the effective mass of the neutrons with different third spin component. A new constraint on the parameters of the effective Skyrme force is derived if this behavior is to be avoided.
Resumo:
Laser-induced damage is the principal limiting constraint in the design and operation of high-power laser systems used in fusion and other high-energy laser applications. Therefore, an understanding of the mechanisms which cause the radiation damage to the components employed in building a laser and a knowledge of the damage threshold of these materials are of great importance in designing a laser system and to operate it without appreciable degradation in performance. This thesis, even though covers three distinct problems for investigations using a dye Q-switched multimode Nd:glass laser operating at 1062 nm and emitting 25 ns (FWHM) pulses, lays its main thrust on damage threshold studies on thin films. Using the same glass laser two-photon excited fluorescence in rhodamine 6G and generation and characterisation of a carbon plasma have also been carried out.
Resumo:
A lucrative export market and high domestic demand has made ornamental fish industry in West Bengal a potential source for income generation. The study aimed to identify: (i) the commercially important size groups of main ornamental fish varieties available in the state; (ii) the existing supply chain; (iii) major constraints for development of the industry; (iv) and to anlayse price spread of commercially important varieties; and (v) to evaluate the profitability of operation at different stakeholder levels in the marketing chain. Export market of ornamental fishes in the state followed a single supply channel while three different distribution channels existed in the domestic market. High electricity charges was the major problem faced by breeders (producers/rearers) whereas lack of technical knowledge regarding transportation was the major constraint for wholesalers. Lack of knowledge on proper health management inhibited the growth of retail industry. The fresh water catfish, angel, molly, arowana, gold fish, tetras, and gouramis showed comparatively higher breeders’ share in consumers’ rupee. Wholesalers were earning comparatively higher annual profit than the other stakeholders due to moderate initial investment and also due to the comparatively lower risk involved.
Resumo:
Coded OFDM is a transmission technique that is used in many practical communication systems. In a coded OFDM system, source data are coded, interleaved and multiplexed for transmission over many frequency sub-channels. In a conventional coded OFDM system, the transmission power of each subcarrier is the same regardless of the channel condition. However, some subcarrier can suffer deep fading with multi-paths and the power allocated to the faded subcarrier is likely to be wasted. In this paper, we compute the FER and BER bounds of a coded OFDM system given as convex functions for a given channel coder, inter-leaver and channel response. The power optimization is shown to be a convex optimization problem that can be solved numerically with great efficiency. With the proposed power optimization scheme, near-optimum power allocation for a given coded OFDM system and channel response to minimize FER or BER under a constant transmission power constraint is obtained
Resumo:
Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.
Resumo:
Gestaltpädagogische Elemente in der Berufspädagogik Potentielle Erträge gestaltpädagogischer Ansätze für die berufliche Bildung - Konzepte, Fundierung, Realisierungsformen - Zusammenfassung: Berufsausbilder, Berufsschullehrer und Trainer in der Aus- und Weiterbildung werden heute mit vielfältigen Veränderungen konfrontiert. Aufgrund des Technikeinsatzes zeigt sich in vie-len Unternehmen ein Wandel der beruflich organisierten Arbeit. Die wirtschaftlichen, techni-schen und sozialen Systemzusammenhänge werden zunehmend komplexer, dynamischer, enger vernetzt und normativ unbestimmter. Die technologische Entwicklung, vor allem der Kommunikationsmedien, hat eine Temposteigerung der Informationsübermittlung zur Folge, die gleichzeitig das Wissen erhöht. Mit der Forderung nach Schlüsselqualifikationen und der Wiederentdeckung ganzheitlicher Arbeitssituationen ist das Bestreben nach Bildungskonzep-ten verbunden, die mit der Herausbildung von Kompetenzen, wie vernetztes, system- und handlungsbezogenes Denken in komplexen Kontexten, Abstraktionsvermögen, systemati-sches Verständnis von Organisationsinterdependenzen, Selbstständigkeit, Selbstverantwor-tung, soziale, methodische und kommunikative Kompetenz und Innovationskraft korrespon-dieren. Unter dem Blickwinkel der Gestaltpädagogik fällt auf, dass die Berufspädagogik Methoden und Techniken in der betrieblichen Aus- und Weiterbildung nutzt, die wesentliche Elemente der Gestaltpädagogik enthalten. Eine konkrete theoretische Fundierung und Einbettung in die Berufspädagogik fehlt jedoch bisher. Die primäre Zielsetzung der Arbeit ist, die theoretischen Grundlagen der Gestaltpädagogik herauszuarbeiten und sie mit der Berufspädagogik in Verbindung zu bringen. An Beispielen wird aufgezeigt, wie gestaltpädagogische Aspekte in die betriebliche Aus- und Weiterbildung einfließen. Dabei werden unter anderem auch die Grenzen und Potentiale der Gestaltpädago-gik für die Berufspädagogik betrachtet. Die theoretische und praktische Relevanz der Arbeit ergibt sich daraus, dass erstmals berufs-pädagogische Vorgehensweisen der Praxis im Hinblick auf gestaltpädagogische Aspekte un-tersucht wurden. Die wesentlichen Forschungsergebnisse dieser Arbeit lassen sich wie folgt zusammenfassen: In der betrieblichen Aus- und Weiterbildung kommen Methoden und Vorgehensweisen zum Einsatz, die oberflächlich betrachtet gestaltpädagogischen Charakter haben. Jedoch werden die gestaltpädagogischen Grundgedanken, wie z.B. eine ganzheitlich umfassende Persönlich-keitsentwicklung, persönlich bedeutsames Lernen, Förderung der sozialen Interaktionsfähig-keit oder die Förderung der Autonomie in der betrieblichen Bildungsarbeit auf ein Minimum reduziert. Die gestaltpädagogischen Methoden und Vorgehensweisen werden überwiegend auf ökonomische Zwecke hin ausgerichtet und funktionalisiert eingesetzt. Man kann sagen, dass sich die betriebliche Praxis mit der Aneinanderreihung von kreativen Übungen zufrieden gibt, und eine Tendenz zu erlebnisaktivierenden Vorgehensweisen zu erkennen ist.
Resumo:
Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.