987 resultados para Difficulty
Resumo:
Learning Disability (LD) is a classification including several disorders in which a child has difficulty in learning in a typical manner, usually caused by an unknown factor or factors. LD affects about 15% of children enrolled in schools. The prediction of learning disability is a complicated task since the identification of LD from diverse features or signs is a complicated problem. There is no cure for learning disabilities and they are life-long. The problems of children with specific learning disabilities have been a cause of concern to parents and teachers for some time. The aim of this paper is to develop a new algorithm for imputing missing values and to determine the significance of the missing value imputation method and dimensionality reduction method in the performance of fuzzy and neuro fuzzy classifiers with specific emphasis on prediction of learning disabilities in school age children. In the basic assessment method for prediction of LD, checklists are generally used and the data cases thus collected fully depends on the mood of children and may have also contain redundant as well as missing values. Therefore, in this study, we are proposing a new algorithm, viz. the correlation based new algorithm for imputing the missing values and Principal Component Analysis (PCA) for reducing the irrelevant attributes. After the study, it is found that, the preprocessing methods applied by us improves the quality of data and thereby increases the accuracy of the classifiers. The system is implemented in Math works Software Mat Lab 7.10. The results obtained from this study have illustrated that the developed missing value imputation method is very good contribution in prediction system and is capable of improving the performance of a classifier.
Resumo:
Unit Commitment Problem (UCP) in power system refers to the problem of determining the on/ off status of generating units that minimize the operating cost during a given time horizon. Since various system and generation constraints are to be satisfied while finding the optimum schedule, UCP turns to be a constrained optimization problem in power system scheduling. Numerical solutions developed are limited for small systems and heuristic methodologies find difficulty in handling stochastic cost functions associated with practical systems. This paper models Unit Commitment as a multi stage decision making task and an efficient Reinforcement Learning solution is formulated considering minimum up time /down time constraints. The correctness and efficiency of the developed solutions are verified for standard test systems
Resumo:
Unit commitment is an optimization task in electric power generation control sector. It involves scheduling the ON/OFF status of the generating units to meet the load demand with minimum generation cost satisfying the different constraints existing in the system. Numerical solutions developed are limited for small systems and heuristic methodologies find difficulty in handling stochastic cost functions associated with practical systems. This paper models Unit Commitment as a multi stage decision task and Reinforcement Learning solution is formulated through one efficient exploration strategy: Pursuit method. The correctness and efficiency of the developed solutions are verified for standard test systems
Resumo:
In a business environment that is characterized by intense competition, building customer loyalty has become a key area of focus for most financial institutions. The explosion of the services sector, changing customer demographics and deregulation and emergence of new technology in the financial services industry have had a critical impact on consumers’ financial services buying behaviour. The changes have forced banks to modify their service offerings to customers so as to ensure high levels of customer satisfaction and also high levels of customer retention. Banks have historically had difficulty distinguishing their products from one another because of their relative homogeneity; with increasing competition,the problem has only intensified with no coherent distinguishing theme. Rising wealth, product proliferation, regulatory changes and newer technologies are together making bank switching easier for customers. In order to remain competitive, it is important for banks to retain their customer base. The financial services sector is the foundation for any economy and plays the role of mobilization of resources and their allocation. The retail banking sector in India has emerged as one of the major drivers of the overall banking industry and has witnessed enormous growth. Switching behaviour has a negative impact on the banks’ market share and profitability as the costs of acquiring customers are much higher than the costs of retaining. When customers switch, the business loses the potential for additional profits from the customer the initial costs invested in the customer by the business get . The Objective of the thesis was to examine the relationship among triggers that customers experience, their perceptions of service quality, consumers’ commitment and behavioral intentions in the contemporary India retail banking context through the eyes of the customer. To understand customers’ perception of these aspects, data were collected from retail banking customers alone for the purpose of analysis, though the banks’ views were considered during the qualitative work carried out prior to the main study. No respondent who is an employee of a banking organization was considered for the final study to avoid the possibility of any bias that could affect the results adversely. The data for the study were collected from customers who have switched banks and from those who were non switchers. The study attempted to develop and validate a multidimensional construct of service quality for retail banking from the consumer’s perspective. A major conclusion from the empirical research was the confirmation of the multidimensional construct for perceived service quality in the banking context. Switching can be viewed as an optimization problem for customers; customers review the potential gains of switching to another service provider against the costs of leaving the service provider. As banks do not provide tangible products, their service quality is usually assessed through service provider’s relationship with customers. Thus, banks should pay attention towards their employees’ skills and knowledge; assessing customers’ needs and offering fast and efficient services.
Resumo:
Earlier studies on measurement of customer satisfaction are based on either transaction specific or overall approaches. The transaction specific approach evaluates customer satisfaction with single components in the whole purchase process but the overall satisfaction was based on all the encounters or experiences to the customer throughout the purchase process. Consumers will comment on particular events of their purchase process when asked about transaction-specific satisfaction and they will comment their overall impression and general experiences in overall satisfaction (Bitner & Hubbert 1994) Through a critical review on the literature, it has been identified a new approaches to customer satisfaction, say, cumulative approaches that can be more useful than overall and transaction specific approaches for strategic decision making (Fornell et al 1996). The cumulative approach to customer satisfaction doesn’t study earlier due to the difficulty in operationalization of the concept. But the influencers of customer satisfaction are context specific and the prevailing models doesn’t give the sources of variations in the satisfaction, the importance of cumulative approaches to customer satisfaction has emerges that lights to a new research. The current study has focused to explore the influencers of overall customer satisfaction to form individual elements that can be used to identify the cumulative customer satisfaction.
Resumo:
Arbeitszeitpolitik und Arbeitszeitgestaltung haben seit dem Tarifkompromiss im Jahre 1984 in der Metall-, und Elektroindustrie in der politischen und wissenschaftlichen Diskussion einen immensen Bedeutungszuwachs erfahren. Die Forderungen nach einer flexibleren Arbeitszeitgestaltung haben zeitgleich sowohl aus der Globalisierungsdiskussion und der Debatte um die Wettbewerbsfähigkeit des "Wirtschaftsstandorts Deutschland" heraus wie auch aus beschäftigungspolitischen Gründen neuen Auftrieb bekommen. Die Diskussion um die Arbeitszeit ist gleichzeitig von verschiedenen, meist gegensätzlichen Interessen geprägt: Auf der Beschäftigtenseite zielt die Arbeitszeitflexibilisierung nach wie vor auf Zeitsouveränität: d.h. auf eine bessere Vereinbarkeit der Arbeitszeit mit allen Aktivitäten außerhalb der Arbeitszeit ab. Demgegenüber stellt die Arbeitgeberseite den betriebswirtschaftlichen Aspekt in den Vordergrund. D.h. die Anpassung der Arbeitszeit an den tatsächlichen Arbeitsanfall. So soll durch aufeinander abgestimmte Gestaltung von Betriebszeit und Arbeitszeit die Erhöhung der Produktivität und die Sicherung der Wettbewerbsfähigkeit erzielt werden. Durch diesen Trend verlor das sog. Normalarbeitsverhältnis an Allgemeingültigkeit und die Flexibilisierung der Arbeitszeiten nahm seit langem kontinuierlich zu. Folge ist, dass mittlerweile eine breite Palette von Arbeitszeitmodellen existiert, in denen die gesetzlich und vertraglich vereinbarte Wochenarbeitszeit in den Dimensionen Lage, Länge und Verteilung flexibilisiert wird. Auch die Tarifverhandlungen und Auseinandersetzung der Tarifparteien zur Arbeitszeitpolitik sind dadurch gekennzeichnet, dass die Arbeitszeitflexibilisierung und Verlagerung der Tarifpolitik auf betriebliche Ebene einen Bedeutungszuwachs bekam und die Meinungsführerschaft in Sachen Arbeitszeitgestaltung von der IG Metall zu Gesamtmetall wechselte. Ziel der vorliegenden Dissertation war es, anhand einer empirisch-historischen Untersuchung über Einstellungen sowie Strategien von Gesamtmetall und IG Metall die Gestaltungsspielräume flexibler Arbeitszeitmodelle zu bestimmen und gleichzeitig die Defizite herauszuarbeiten. Die Untersuchung gründete sich in erster Linie auf die Dokumentenanalyse von Stellungnahmen der Gesamtmetall und IG-Metall-Leitungsgremien sowie Primär- und Sekundäranalyse von Befragungen der Beschäftigten. Die leitende Frage der Untersuchung war, ob es den Arbeitgeberverbänden und den Gewerkschaften gelingen konnte, die Erfordernisse eines Betriebes und die Belange der Beschäftigten weitgehend in Übereinstimmung zu bringen? Und (wenn ja) unter welchen Voraussetzungen die neuen flexiblen Arbeitszeitsysteme mit den betrieblichen und außerbetrieblichen Interessen der Beschäftigten zu vereinbaren sind. Den Hintergrund für diese Zielerreichung bildete der gesellschaftliche Konflikt zwischen Arbeit und Kapital. Denn die Schwierigkeit bzw. Komplexität lag in der Frage, wie die unterschiedlichen Interessen, die sich in der industriekapitalistischen Gesellschaft durch den Gegensatz "Kapital" und "Arbeit" bestimmen lassen, zu vereinbaren waren bzw. sind.
Resumo:
Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.
Resumo:
Die empirische Studie untersucht das Wechselspiel zwischen der fachbezogenen Sprachentwicklung und dem Fachlernen von Schülerinnen und Schülern bei der Einführung in den Kraftbegriff. Sie betrachtet also sowohl sprachliche wie auch kognitive Aspekte des Lernens in der Mechanik. Dafür wurde ein Unterrichtskonzept entwickelt, das den Gebrauch des Fachwortes Kraft in der Wissenschaft und in der alltäglichen Sprache besonders thematisiert. Dieses Unterrichtskonzept basiert auf Empfehlungen und Ergebnissen der Kognitionspsychologie, Linguistik, Philosophie, Sprachlehrforschung und der Didaktiken der Physik und der Fremdsprachen. Im Rahmen des Unterrichts wurden die Schülerinnen und Schüler mit zwei Aufgabentypen konfrontiert: Beim ersten Aufgabentyp waren die Lerner aufgefordert, den Kraftbegriff so zu verwenden, wie es einer fachsprachlich angemessenen Form entspräche, etwa um die Bewegung eines Zuges zu beschreiben. Aufgaben des zweiten Typs sahen vor, dass die Schülerinnen und Schüler kurze Texte danach klassifizierten, ob sie der Alltagssprache oder der Fachsprache angehörten. Diese als Metadiskurs bezeichnete Form der Auseinandersetzung mit sprachlichen Aspekten verhalf den Schülerinnen und Schülern zu einer Gelegenheit, ihr eigenes Verständnis des Kraftbegriffs zu thematisieren. Weiter lieferte der Metadiskurs wichtige Hinweise darauf, ob die Schülerinnen und Schüler sich bei ihren Beurteilungen eher auf formal-sprachliche oder inhaltliche Aspekte der Sprache bezogen. Für die Datenerhebung wurden alle Unterrichtsstunden videografiert und transkribiert. Zusammen mit schriftlichen Arbeitsergebnissen und Tests stand ein umfangreicher Datensatz zur Verfügung, für dessen Auswertung ein inhaltsanalytisches Verfahren Anwendung fand. Die Ergebnisse zeigen, dass das Lernen im Fach Physik bestimmte Ähnlichkeiten mit dem Lernen einer Fremdsprache zeigt: Wenn die Schülerinnen und Schüler den Kraftbegriff fachsprachlich verwenden sollen, sehen sie sich oft einer Alternativentscheidung gegenüber. Entweder sie versuchen, einer fachsprachlichen Form zu gehorchen und verlieren dabei den Inhalt aus den Augen, oder sie konzentrieren sich auf den Inhalt, drücken sich dabei aber in ihrer Alltagssprache aus und folgen Alltagskonzepten, die weit entfernt von den fachlich intendierten liegen. Ähnliche Beobachtungen kann man im Sprachunterricht machen, wenn Schüler eine neue grammatische Regel einüben: Sie konzentrieren sich entweder auf die neu zu erlernende Regel, oder aber auf den Inhalt des Gesagten, wobei sie die grammatische Regel, die an sich Gegenstand der Übung ist, verletzen. Meistens fällt diese Entscheidung derart, dass die Konzentration auf den Inhalt des Gesagten gerichtet ist, nicht oder wenig auf seine Form. Im Unterschied zum Sprachunterricht ist der Physikunterricht allerdings nicht nur darauf gerichtet, fachsprachlich angemessene Formen einzuüben, sondern insbesondere darauf, den Blick für neue und ungewohnte Konzepte zu öffnen. Damit müssen die Schülerinnen und Schüler hier häufig sprachliche und kognitive Hürden zur selben Zeit bewältigen. Die detaillierte Analyse des Metadiskurses zeigt, dass das Problem des Nebeneinanders zweier unterschiedlicher Anforderung entschäft werden kann: Während die Schüler im Metadiskurs unterschiedliche Aspekte der Sprache diskutieren, sind sie eher in der Lage, sowohl formale wie inhaltsbezogene Merkmale der Sprache wahrzunehmen. Der Text referiert weitere Parallelen zwischen dem Physikunterricht und dem Fremdsprachenlernen, sodass die Auffassung gerechtfertigt ist, dass die Fremdsprachendidaktik als Ideenlieferantin dafür dienen kann, neue Verbesserungsmöglichkeiten für den Physikunterricht aufzufinden.
Resumo:
Autistische Phänomene haben seit ihrer Entdeckung (Kanner 1943, Asperger 1944) Wissenschaftler verschiedener Disziplinen immer wieder beschäftigt: Psychiater, Neurowissenschaftler, kognitive Psychologen, Säuglingsforscher, Evolutionspsychologen und Psychoanalytiker haben sich sowohl mit der Beschreibung des Krankheitsbildes wie auch mit den psychischen Prozessen, die bei autistischen Phänomenen vorhanden sind, befasst. Wenn man von einem globalen interdisziplinären Ergebnis der Autismus-Forschung sprechen wollte, könnte man behaupten, dass diese sich als eine Möglichkeit anbot, ein umfassenderes Verständnis für psychische Vorgänge im Allgemeinen zu entwickeln. Die Psychoanalyse als eine „Wissenschaft der Subjektivität“ (Meissner 1983) hat eine lange Tradition in der Entwicklung von Theorie- und Behandlungsansätzen entwickelt. Die kognitiv-psychologischen Untersuchungen haben sich ebenfalls ausführlich mit autistischen Phänomenen befasst. Diese Arbeit stellt einen Versuch dar, eine Fragestellung zu entwickeln, die das psychoanalytische Verständnis autistischer Phänomene mit Auffassungen kognitions-psychologischer Autoren zu verbinden und zu vergleichen sucht. Aus der Sichtweise der Psychoanalyse ist das ein Versuch, die interne bzw. narrative Kohärenz (Leuzinger-Bohleber 1995) psychoanalytischen Verständnisses durch die externe Kohärenz des interdisziplinären Dialoges mit einer anderen Wissenschaft her zu stellen. Zugrunde liegt der Versuch einer Vernetzung verschiedener Erkenntnisse im Sinne verschiedener Modelle, die sich gegenseitig bereichern können. Dem Begriff der Theory of Mind, deren Beeinträchtigung von Kognitionswissenschaftlern (Baron-Cohen 1993, 1995; Baron-Cohen et.al. 1985; Hobson 1993, 2007; Frith 1989, 2003) in der Autismusforschung als grundlegendes Merkmal betrachtet wird, werde ich die psychodynamische Betrachtung (Tustin 1972, 1995; 1981, 1989; 1991; Meltzer 1975; Bion 1962, 1992) gegenüber stellen, die eher von einer Dysfunktion projektiv-identifikatorischer Prozesse (-PI) ausgeht, die sich in einem scheinbaren Mangel an diesen Prozessen äußert. Den von Baron-Cohen entwickelten Parametern, die eine phänomenologische Betrachtung autistischer Phänomene ermöglichen, werde ich die intrapsychische und objektbezogene psychoanalytische Betrachtungsweise gegenüberstellen, die postuliert, dass die Projektive Identifizierung als psychisches Phänomen, das der unbewussten averbalen Kommunikation zugrunde liegt, in autistischen Manifestationen beeinträchtig zu sein scheint. Da die Fähigkeit, psychische Phänomene in sich selbst und in anderen wahrzunehmen, der Psyche immanenteste Eigenschaft und gerade in autistischen Phänomenen beeinträchtigt ist, kann die psychoanalytische Konzeptbildung, die sich mit der Struktur des Psychischen und deren prozesshaftem Charakter befasst, den verschiedenen Disziplinen und auch der Autismus Forschung wichtige Anregungen geben. Anhand einer Einzelfalldarstellung, aus der sich psychodynamische Hypothesen entwickelten, die zu einem psychoanalytischen Verständnis führten, versuche ich, eine gewisse Korrespondenz mit Hypothesen aus der „embodied“ kognitiven Psychologie, wie z.B. die Rolle der Projektiven Identifizierung in der Bildung einer „Theory of Mind“ und ihre Beeinträchtigung (-PI) bei autistischen Phänomenen (Mindblindness, Baron-Cohen) herzustellen.
Resumo:
Heilkräuter sind während des Trocknungsprozesses zahlreichen Einflüssen ausgesetzt, welche die Qualität des Endproduktes entscheidend beeinflussen. Diese Forschungsarbeit beschäftigt sich mit der Trocknung von Zitronenmelisse (Melissa officinalis .L) zu einem qualitativ hochwertigen Endprodukt. Es werden Strategien zur Trocknung vorgeschlagen, die experimentelle und mathematische Aspekte mit einbeziehen, um bei einer adäquaten Produktivität die erforderlichen Qualitätsmerkmale im Hinblick auf Farbeänderung und Gehalt an ätherischen Ölen zu erzielen. Getrocknete Zitronenmelisse kann zurzeit, auf Grund verschiedener Probleme beim Trocknungsvorgang, den hohen Qualitätsanforderungen des Marktes nicht immer genügen. Es gibt keine standardisierten Informationen zu den einzelnen und komplexen Trocknungsparametern. In der Praxis beruht die Trocknung auf Erfahrungswerten, bzw. werden Vorgehensweisen bei der Trocknung anderer Pflanzen kopiert, und oftmals ist die Trocknung nicht reproduzierbar, oder beruht auf subjektiven Annäherungen. Als Folge dieser nicht angepassten Wahl der Trocknungsparameter entstehen oftmals Probleme wie eine Übertrocknung, was zu erhöhten Bruchverlusten der Blattmasse führt, oder eine zu geringe Trocknung, was wiederum einen zu hohen Endfeuchtegehalt im Produkt zur Folge hat. Dies wiederum mündet zwangsläufig in einer nicht vertretbaren Farbänderung und einen übermäßigen Verlust an ätherischen Ölen. Auf Grund der unterschiedlichen thermischen und mechanischen Eigenschaften von Blättern und Stängel, ist eine ungleichmäßige Trocknung die Regel. Es wird außerdem eine unnötig lange Trocknungsdauer beobachtet, die zu einem erhöhten Energieverbrauch führt. Das Trocknen in solaren Tunneln Trocknern bringt folgendes Problem mit sich: wegen des ungeregelten Strahlungseinfalles ist es schwierig die Trocknungstemperatur zu regulieren. Ebenso beeinflusst die Strahlung die Farbe des Produktes auf Grund von photochemischen Reaktionen. Zusätzlich erzeugen die hohen Schwankungen der Strahlung, der Temperatur und der Luftfeuchtigkeit instabile Bedingungen für eine gleichmäßige und kontrollierbare Trocknung. In Anbetracht der erwähnten Probleme werden folgende Forschungsschwerpunkte in dieser Arbeit gesetzt: neue Strategien zur Verbesserung der Qualität werden entwickelt, mit dem Ziel die Trocknungszeit und den Energieverbrauch zu verringern. Um eine Methodik vorzuschlagen, die auf optimalen Trocknungsparameter beruht, wurden Temperatur und Luftfeuchtigkeit als Variable in Abhängigkeit der Trocknungszeit, des ätherischer Ölgehaltes, der Farbänderung und der erforderliche Energie betrachtet. Außerdem wurden die genannten Parametern und deren Auswirkungen auf die Qualitätsmerkmale in solaren Tunnel Trocknern analysiert. Um diese Ziele zu erreichen, wurden unterschiedliche Ansätze verfolgt. Die Sorption-Isothermen und die Trocknungskinetik von Zitronenmelisse und deren entsprechende Anpassung an verschiedene mathematische Modelle wurden erarbeitet. Ebenso wurde eine alternative gestaffelte Trocknung in gestufte Schritte vorgenommen, um die Qualität des Endproduktes zu erhöhen und gleichzeitig den Gesamtenergieverbrauch zu senken. Zusätzlich wurde ein statistischer Versuchsplan nach der CCD-Methode (Central Composite Design) und der RSM-Methode (Response Surface Methodology) vorgeschlagen, um die gewünschten Qualitätsmerkmalen und den notwendigen Energieeinsatz in Abhängigkeit von Lufttemperatur und Luftfeuchtigkeit zu erzielen. Anhand der gewonnenen Daten wurden Regressionsmodelle erzeugt, und das Verhalten des Trocknungsverfahrens wurde beschrieben. Schließlich wurde eine statistische DOE-Versuchsplanung (design of experiments) angewandt, um den Einfluss der Parameter auf die zu erzielende Produktqualität in einem solaren Tunnel Trockner zu bewerten. Die Wirkungen der Beschattung, der Lage im Tunnel, des Befüllungsgrades und der Luftgeschwindigkeit auf Trocknungszeit, Farbänderung und dem Gehalt an ätherischem Öl, wurde analysiert. Ebenso wurden entsprechende Regressionsmodelle bei der Anwendung in solaren Tunneltrocknern erarbeitet. Die wesentlichen Ergebnisse werden in Bezug auf optimale Trocknungsparameter in Bezug auf Qualität und Energieverbrauch analysiert.
Resumo:
Rice straw is used in Northeastern Thailand as an alternative to organic fertilizer for crop production. This enables farmers to reduce the use of chemical fertilizers which leads to a decrease in production costs. In spite of the beneficial effects in agricultural production, rice straw compost cannot be produced in large amounts because the burning of rice straws is a common farming practice. The decisions of farmers who use rice straw compost have been investigated by interviewing 120 households belonging to the members of an organic fertilizer user group using a household questionnaire. The study was conducted to evaluate the factors that affect the use of rice straw compost in Khon Kaen Province in Northeastern Thailand. Results of the logit model showed that the farmers’ education, number of rice straw compost trainings in which the farmer participated, lack of knowledge about technology, insufficient labour and difficulty in making rice straw compost had a significant impact on the farmer’s decision to use rice straw compost. Difficulty in making rice straw compost appeared to be the root cause because the procedure of making rice straw compost is complex and labour intensive. Repeated trainings thus, will have a positive and significant influence on farmers’ adoption of the technology. Training provides more knowledge and will presumably change the perception of the farmers towards new technologies and the awareness of positive effects of rice straw compost utilization.
Resumo:
A key problem in object recognition is selection, namely, the problem of identifying regions in an image within which to start the recognition process, ideally by isolating regions that are likely to come from a single object. Such a selection mechanism has been found to be crucial in reducing the combinatorial search involved in the matching stage of object recognition. Even though selection is of help in recognition, it has largely remained unsolved because of the difficulty in isolating regions belonging to objects under complex imaging conditions involving occlusions, changing illumination, and object appearances. This thesis presents a novel approach to the selection problem by proposing a computational model of visual attentional selection as a paradigm for selection in recognition. In particular, it proposes two modes of attentional selection, namely, attracted and pay attention modes as being appropriate for data and model-driven selection in recognition. An implementation of this model has led to new ways of extracting color, texture and line group information in images, and their subsequent use in isolating areas of the scene likely to contain the model object. Among the specific results in this thesis are: a method of specifying color by perceptual color categories for fast color region segmentation and color-based localization of objects, and a result showing that the recognition of texture patterns on model objects is possible under changes in orientation and occlusions without detailed segmentation. The thesis also presents an evaluation of the proposed model by integrating with a 3D from 2D object recognition system and recording the improvement in performance. These results indicate that attentional selection can significantly overcome the computational bottleneck in object recognition, both due to a reduction in the number of features, and due to a reduction in the number of matches during recognition using the information derived during selection. Finally, these studies have revealed a surprising use of selection, namely, in the partial solution of the pose of a 3D object.
Resumo:
A new information-theoretic approach is presented for finding the pose of an object in an image. The technique does not require information about the surface properties of the object, besides its shape, and is robust with respect to variations of illumination. In our derivation, few assumptions are made about the nature of the imaging process. As a result the algorithms are quite general and can foreseeably be used in a wide variety of imaging situations. Experiments are presented that demonstrate the approach registering magnetic resonance (MR) images with computed tomography (CT) images, aligning a complex 3D object model to real scenes including clutter and occlusion, tracking a human head in a video sequence and aligning a view-based 2D object model to real images. The method is based on a formulation of the mutual information between the model and the image called EMMA. As applied here the technique is intensity-based, rather than feature-based. It works well in domains where edge or gradient-magnitude based methods have difficulty, yet it is more robust than traditional correlation. Additionally, it has an efficient implementation that is based on stochastic approximation. Finally, we will describe a number of additional real-world applications that can be solved efficiently and reliably using EMMA. EMMA can be used in machine learning to find maximally informative projections of high-dimensional data. EMMA can also be used to detect and correct corruption in magnetic resonance images (MRI).
Resumo:
A difficulty in the design of automated text summarization algorithms is in the objective evaluation. Viewing summarization as a tradeoff between length and information content, we introduce a technique based on a hierarchy of classifiers to rank, through model selection, different summarization methods. This summary evaluation technique allows for broader comparison of summarization methods than the traditional techniques of summary evaluation. We present an empirical study of two simple, albeit widely used, summarization methods that shows the different usages of this automated task-based evaluation system and confirms the results obtained with human-based evaluation methods over smaller corpora.
Resumo:
In the absence of cues for absolute depth measurements as binocular disparity, motion, or defocus, the absolute distance between the observer and a scene cannot be measured. The interpretation of shading, edges and junctions may provide a 3D model of the scene but it will not inform about the actual "size" of the space. One possible source of information for absolute depth estimation is the image size of known objects. However, this is computationally complex due to the difficulty of the object recognition process. Here we propose a source of information for absolute depth estimation that does not rely on specific objects: we introduce a procedure for absolute depth estimation based on the recognition of the whole scene. The shape of the space of the scene and the structures present in the scene are strongly related to the scale of observation. We demonstrate that, by recognizing the properties of the structures present in the image, we can infer the scale of the scene, and therefore its absolute mean depth. We illustrate the interest in computing the mean depth of the scene with application to scene recognition and object detection.