895 resultados para Teaching of mathematics. Combinatorial analysis. Heuristic analysis of combinatorial problems
Resumo:
Weldability of powder bed fusion (PBF) fabricated components has come to discussion in past two years due to resent developments in the PBF technology and limited size of the machines used in the fabrication process. This study concentrated on effects of energy input of welding on mechanical properties and microstructural features of welds between PBF fabricated stainless steel 316L sheets and cold rolled sheet metal of same composition by the means of destructive testing and microscopic analysis. Optical fiber diameter, laser power and welding speed were varied during the experiments that were executed following one variable at a time (OVAT) method. One of the problems of welded PBF fabricated components has been lower elongations at break comparing to conventionally manufactured components. Decreasing energy input of the laser keyhole welding decreased elongations at break of the welded specimens. Ultimate tensile strengths were not affected significantly by the energy input of the welding, but fracturing of the specimens welded using high energy input occurred from the weld metal. Fracturing of the lower energy input welds occurred from the PBF fabricated base metal. Energy input was found to be critical factor for mechanical properties of the welds. Multioriented grain growth and formation of neck at fusion zone boundary on the cold rolled side of the weld was detected and suspected to be result from weld pool flows caused by differences in molten weld pool behaviour between the PBF fabricated and cold rolled sides of the welds.
Resumo:
Decreased gustatory and olfactory capacity is one of the problems caused by tobacco use. The objectives of this study were to determine the sensory profile of six grape nectar samples sweetened with different sweeteners and to verify the drivers of liking in two distinct consumer groups: smokers and nonsmokers. The sensory profile was constructed by twelve trained panelists using quantitative descriptive analysis (QDA). Consumer tests were performed with 112 smokers and 112 nonsmokers. Partial least squares regression analyses was used to identify the drivers of acceptance and rejection of the grape nectars among the two consumer groups. According to the QDA, the samples differed regarding six of the nineteen attributes generated. The absolute averages of the affective test were lower in the group of smokers; possibly because smoking influences acceptance and eating preferences, especially with regard to sweet foods. The results showed that the grape flavor was the major driver of preference for acceptance of the nectar, while astringency, wine aroma, bitterness and sweetness, and bitter aftertaste were drivers of rejection in the two groups of consumers, with some differences between the groups.
Resumo:
The introduction of computer and communications technology, and particularly the internet, into education has opened up some new possibilities for teaching and learning. Courses designed and delivered in an online environment offer the possibility of highly interactive and individually focussed teaching and learning experiences. However, online courses also present new challenges for both teachers and students. A qualitative study was conducted to explore teachers' perceptions about the similarities and differences in teaching in the online and face-to-face (F2F) environments. Focus group discussions were held with 5 teachers; 2 teachers were interviewed in depth. The participants, 3 female and 2 male, were full-time teachers from a large College of Applied Arts & Technology in southern Ontario. Each of them had over 10 years of F2F teaching experience and each had been involved in the development and teaching of at least one online course. i - -; The study focussed on how teaching in the online environment compares with teaching in the F2F environment, what roles teachers and students adopt in each setting, what learning communities mean online and F2F and how they are developed, and how institutional policies, procedures, and infrastructure affect teaching and learning F2F and online. This study was emic in nature, that is the teachers' words determine the themes identified throughout the study. The factors identified as affecting teaching in an online environment included teacher issues such as course design, motivation to teach online, teaching style, role, characteristics or skills, and strategies. Student issues as perceived by the teachers included learning styles, role, and characteristics or skills. As well, technology issues such as a reliable infrastructure, clear role and responsibilities for maintaining the infrastructure, support, and multimedia capability affected teaching online. Finally, administrative policies and procedures, including teacher selection and training, registration and scheduling procedures, intellectual property and workload policies, and the development and communication of a comprehensive strategic plan were found to impact on teaching online. The teachers shared some of the benefits they perceived about teaching online as well as some of the challenges they had faced and challenges they perceived students had faced online. Overall, the teachers feh that there were more similarities than differences in teaching between the two environments, with the main differences being the change from F2F verbal interactions involving body language to online written interactions without body language cues, and the fundamental reliance on technology in the online environment. These findings support previous research in online teaching and learning, and add teachers' perspectives on the factors that stay the same and the factors that change when moving from a F2F environment to an online environment.
Resumo:
The objective of this thesis is to study the involvement of the Auditor General in the proposal, implementation and review of major public service reform initiatives during a period spanning nearly forty years, from the early 1960s to 2001 . This period began with the Glassco Commission and concludes at the end of the term in office of Auditor General Denis Desautels in 2001. It has been demonstrated throughout this work that the role of the OAG has varied, from proponent to critic, from instigator to reviewer. In the past forty years the OAG's mandate has changed to meet the requirements of critical analysis of government operations and this has been aptly demonstrated in the office's relationship to the issue of public service reform. It has been argued that many of the problems facing the public service are cultural in nature. Reform initiatives have taken on a number of various forms with each addressing a different set of priorities. However, there has been a great deal of consistency in the cultural values that these initiatives articulate. Throughout this thesis attention has been paid to values. Values define a culture and cultural change is required within the Canadian federal public service. How and when this cultural change will occur is but one question to be answered. During the period under consideration in this thesis the government undertook several significant public service reform initiatives. Those examined in this thesis include: The Royal Commission on Government Organization, The Special Committee on the Review of Personnel Management and the Merit Principle, The Royal Commission on Financial Management and Accountability, Increased Ministerial Authority and Accountability, Public Service 2000, Program Review and finally La Releve. The involvement, or interest, of the Auditor General's Office on the subject of public service reform is generally articulated through the means of its annual reports to Parliament although there have been supplementary undertakings on this issue. Such material relevant to this study include: Towards Better Governance: Public Service Reform in New Zealand (1984-94) and its Relevance to Canada and Reform in the Australian Public Service. Annual reports to Parliament include: "Values, Service and Performance," (1990), "Canada's Public Service Reform and Lessons Learned from Selected Jurisdictions," (1993), "Maintaining a Competent and Efficient Public Service," (1997), and "Expenditure and Work Force Reduction in Selected Departments,"
Resumo:
This thesis uses critical discourse analysis (COAl to explore and examine direct-toconsumer (OTC) pharmaceutical drug advertisements appearing in four issues of 0, The Oprah Magazine in 2006. The theoretical underpinnings of this thesis emerge from social scientists and feminists analyses regarding the medicalization of everyday life. The findings of this study highlight three types of discourses used by pharmaceutical companies. First, I explore the use of historical and contemporary gender norms to seJi pharmacological products; second, J examine discourses which normalize the use of chemical solutions as the first line of defense to address a wide range of everyday problems; and finally, I assess how phannaceutical advertisements provide an illusion of autonomy by responsibilizing individuals as patients, at the same time as they suggest that real independence can only be achieved with medication. My discussion of these themes also includes an analysis of why 0 Magazine, which explicitly promotes women's empowerment through holistic approaches to health and personal growthmight support such advertising. Thus I explore: how does OTC advertising benefit both pharmaceutical companies and 0 Magazine itself? I conclude through a brief discussion of the larger implications of OTC advertising for women's health.
Resumo:
This thesis invites geographers to pay more attention to public policy research by addressing the need to rethink fiscal decentralization policies in Ghana. By applying “Simandan’s wise stance in human geography” and “Grix’s building blocks of social research design”, I developed a conceptual framework that unites two incommensurable ontological and epistemological research positions in geography—the positive and normative positions. I used the framework to investigate two key research questions. First, does fiscal decentralization actually work in Ghana? Through quantitative analysis of empirical revenue and expenditure data (1994-2011) of local governments in Ghana, this study reveals significant issues of inefficiency, inequity, and unaccountability. Local governments generate less revenue, and therefore depend largely on central government transfers for developing their jurisdictions. Worse yet, these transfers are highly unpredictable in terms of amount and timing. Even though a multivariate regression analysis revealed that these transfers are apolitical, the actual disbursement formula tends to focus on equality instead of equity. Additionally, the unclear expenditure assignments in each locality make accountability difficult. In view of these problems, I addressed the question: why is fiscal decentralization held out as a good thing in Ghana? By drawing lessons from Foucault’s and Escobar’s critical discourse analysis, I traced a genealogy of Ghana’s fiscal decentralization. I found that the policy is held out as a good thing in Ghana because of the triangular operation of multiplicities of power, knowledge, and truth regimes at the local, national and international scale. I concluded that although nation-states remains a necessary causal link in fiscal decentralization policy process in Ghana, direct and indirect international involvement have profound effect on these policies. Therefore, rethinking fiscal decentralization involves acknowledging the complex intermingling effects that global, national, and local territories produce.
Characterizing Dynamic Optimization Benchmarks for the Comparison of Multi-Modal Tracking Algorithms
Resumo:
Population-based metaheuristics, such as particle swarm optimization (PSO), have been employed to solve many real-world optimization problems. Although it is of- ten sufficient to find a single solution to these problems, there does exist those cases where identifying multiple, diverse solutions can be beneficial or even required. Some of these problems are further complicated by a change in their objective function over time. This type of optimization is referred to as dynamic, multi-modal optimization. Algorithms which exploit multiple optima in a search space are identified as niching algorithms. Although numerous dynamic, niching algorithms have been developed, their performance is often measured solely on their ability to find a single, global optimum. Furthermore, the comparisons often use synthetic benchmarks whose landscape characteristics are generally limited and unknown. This thesis provides a landscape analysis of the dynamic benchmark functions commonly developed for multi-modal optimization. The benchmark analysis results reveal that the mechanisms responsible for dynamism in the current dynamic bench- marks do not significantly affect landscape features, thus suggesting a lack of representation for problems whose landscape features vary over time. This analysis is used in a comparison of current niching algorithms to identify the effects that specific landscape features have on niching performance. Two performance metrics are proposed to measure both the scalability and accuracy of the niching algorithms. The algorithm comparison results demonstrate the algorithms best suited for a variety of dynamic environments. This comparison also examines each of the algorithms in terms of their niching behaviours and analyzing the range and trade-off between scalability and accuracy when tuning the algorithms respective parameters. These results contribute to the understanding of current niching techniques as well as the problem features that ultimately dictate their success.
Resumo:
The purpose of this research study was to determine if the instructional model, Teaching Games for Understanding (TGfU), would allow for the successful teaching of sport to disengaged female students in Physical Education (PE) classes. An instrumental case study research design was used to determine grade nine female students’ experiences with TGfU, the factors of TGfU that facilitated their engagement, and the ways in which these students resisted engaging in TGfU. Data was collected through a pre and post TGfU unit focus group, participant observation, in-depth interviews, and researcher reflections. Results showed that TGfU caused an increase in the participants’ engagement in PE physically, mentally, and socially/emotionally. Future researchers could structure their entire study holistically and should examine TGfU’s impact on student engagement over the course of an entire semester. Subsequent studies should moreover examine the presence of disengagement within physically skilled students in PE.
Resumo:
Ancrée dans le domaine de la didactique des mathématiques, notre thèse cible le « travail de l’erreur » effectué par trois enseignants dans leur première année de carrière. Libérés des contraintes associées au système de formation initiale, ces sujets assument pleinement leur nouveau rôle au sein de la classe ordinaire. Ils se chargent, entre autres, de l’enseignement de l’arithmétique et, plus précisément, de la division euclidienne. Parmi leurs responsabilités se trouvent le repérage et l’intervention sur les procédures erronées. Le « travail de l’erreur » constitue l’expression spécifique désignant cette double tâche (Portugais 1995). À partir d’un dispositif de recherche combinant les méthodes d’observation et d’entrevue, nous documentons des séances d’enseignement afin de dégager les situations où nos maîtres du primaire identifient des erreurs dans les procédures algorithmiques des élèves et déploient, subséquemment, des stratégies d’intervention. Nous montrons comment ces deux activités sont coordonnées en décrivant les choix, décisions et actions mises en œuvre par nos sujets. Il nous est alors possible d’exposer l’organisation de la conduite de ces jeunes enseignants en fonction du traitement effectif de l’erreur arithmétique. En prenant appui sur la théorie de champs conceptuels (Vergnaud 1991), nous révélons l’implicite des connaissances mobilisées par nos sujets et mettons en relief les mécanismes cognitifs qui sous-tendent cette activité professionnelle. Nous pouvons ainsi témoigner, du moins en partie, du travail de conceptualisation réalisé in situ. Ce travail analytique permet de proposer l’existence d’un schème du travail de l’erreur chez ces maîtres débutants, mais aussi de spécifier sa nature et son fonctionnement. En explorant le versant cognitif de l’activité enseignante, notre thèse aborde une nouvelle perspective associée au thème du repérage et de l’intervention sur l’erreur de calcul de divisions en colonne.
Resumo:
Dans le contexte actuel de l’éducation au Québec où la réforme des programmes de formation des jeunes appelle un renouvellement des pratiques d’enseignement, notre recherche s’intéresse au développement de la dimension didactique de la pratique liée à l’enseignement des mathématiques qui est considéré comme l’un des éléments clés des nouvelles orientations. Nous abordons la question par le biais de la collaboration de formation initiale pour l’enseignement des mathématiques au primaire qui se vit en stage entre des praticiennes en exercice et en formation et une didacticienne des mathématiques. Cette rencontre sur le terrain des stages au primaire entre praticiennes et didacticienne, longtemps réclamée et rendue possible à l’UQAT , nous a amené à formuler une première question de recherche touchant ce qui se construit à travers les échanges de ces partenaires de la formation au cours des supervisions pédagogiques conjointes qui les réunissent en stage. Nous avons cadré ce questionnement à partir des balises théoriques de la didactique professionnelle qui proposent modèle et concepts pour expliciter l’activité professionnelle et traiter des phénomènes de développement des compétences professionnelles en contexte de travail et de formation. La didactique professionnelle attribue un rôle essentiel à la communauté de pratique et au processus d’analyse de l’expérience dans le développement professionnel des novices et dans l’explicitation d’un savoir d’action jugé pertinent et reconnu. Nous y faisons donc appel pour poser le potentiel que représentent les échanges issus de la collaboration quant à leur contribution à l’établissement d’un savoir de référence pour l’enseignement des mathématiques. La didactique professionnelle propose également le recours au concept de schème pour décrire l’activité professionnelle et à l’idée de concepts organisateurs comme élément central de l’activité et comme variable de la situation professionnelle concernée. Nous recourons à ces mêmes concepts pour expliciter le savoir de référence pour l’enseignement des mathématiques qui émerge à travers les échanges des partenaires de la formation. Dans le cadre d’une étude de cas, nous nous sommes intéressée aux échanges qui se déroulent entre une stagiaire qui effectue son troisième et avant dernier stage , l’enseignante-associée qui la reçoit et la chercheure-didacticienne qui emprunte le rôle de superviseure universitaire. Les échanges recueillis sont issus de trois cycles de supervision conjointe qui prennent la forme de rencontres de préparation des situations d’enseignement de mathématique; d’observation en classe des séances d’enseignement pilotées par la stagiaire auprès de ses élèves; et des rencontres consacrées à l’analyse des situations d’enseignement observées et de l’activité mise en œuvre par la stagiaire. Ainsi les objets de discussion relevés par les différents partenaires de la formation et la négociation de sens des situations professionnelles vécues et observées sont analysés de manière à rendre visibles les constituants de l’activité professionnelle qui sont jugés pertinents par la triade de formation. Dans un deuxième temps, en partant de cette première analyse, nous dégageons les concepts organisateurs des situations professionnelles liées à l’enseignement des mathématiques qui sont pris en compte par la triade de formation et qui constituent des variables de la situation professionnelle. Les constituants de l’activité et des situations professionnelles qui résultent de cette analyse sont envisagés en tant que représentations collectives qui se révèlent à travers les échanges de la triade de formation. Parce que ces représentations se sont trouvées partagées, négociées dans le cadre des supervisions pédagogiques, elles sont envisagées également en tant que savoir de référence pour cette triade de formation. Les échanges rendus possibles entre les praticiennes et la didacticienne placent ce savoir de référence dans une dynamique de double rationalité pratique et didactique. Enfin, partant de l’apport déterminant de la communauté de pratique et de formation de même que du savoir de référence que cette dernière reconnait comme pertinent dans le développement professionnel des novices, les résultats de cette recherches peuvent contribuer à réfléchir la formation des futures enseignantes en stage en ce qui a trait à l’enseignement des mathématiques au primaire.
Resumo:
La présente étude intitulée « utilisation des technologies de l’information et de la communication dans l’enseignement secondaire et développement des compétences des élèves en résolution de problèmes mathématiques au Burkina Faso » est une recherche descriptive de type mixte examinant à la fois des données qualitatives et quantitatives. Elle examine les compétences en résolution de problèmes mathématiques d’élèves du Burkina Faso pour révéler d’éventuelles relations entre celles-ci et l’utilisation des TIC par les élèves ou leur enseignant de mathématiques. L’intérêt de cette recherche est de fournir des informations aussi bien sur la réalité des TIC dans l’enseignement secondaire au Burkina que sur les effets de leur présence dans l’enseignement et l’apprentissage des mathématiques. Les éléments théoriques ayant servi à l’analyse des données sont présentés suivant trois directions : la résolution des problèmes, le développement des compétences, et les relations entre les TIC, le développement de compétences et la résolution de problèmes. Du croisement de ces éléments émergent trois axes pour le développement de la réponse apportée à la préoccupation de l’étude : 1) décrire l’utilisation de l’ordinateur par les élèves du Burkina Faso pour améliorer leur apprentissage des mathématiques ; 2) identifier des rapports éventuels entre l’utilisation de l’ordinateur par les élèves et leurs compétences en résolution de problèmes mathématiques ; 3) identifier des rapports entre les compétences TIC de l’enseignant de mathématiques et les compétences de ses élèves en résolution de problèmes. Les processus de la résolution de problèmes sont présentés selon l’approche gestaltiste qui les fait passer par une illumination et selon l’approche de la théorie de la communication qui les lie au type de problème. La résolution de problèmes mathématiques passe par des étapes caractéristiques qui déterminent la compétence du sujet. Le concept de compétence est présenté selon l’approche de Le Boterf. Les données révèlent que les élèves du Burkina Faso utilisent l’ordinateur selon une logique transmissive en le considérant comme un répétiteur suppléant de l’enseignant. Par la suite, il n’y a pas de différence significative dans les compétences en résolution de problèmes mathématiques entre les élèves utilisant l’ordinateur et ceux qui ne l’utilisent pas. De même, l’étude révèle que les enseignants présentant des compétences TIC n’ont pas des élèves plus compétents en résolution de problèmes mathématiques que ceux de leurs collègues qui n’ont pas de compétences TIC.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Resumo:
Many finite elements used in structural analysis possess deficiencies like shear locking, incompressibility locking, poor stress predictions within the element domain, violent stress oscillation, poor convergence etc. An approach that can probably overcome many of these problems would be to consider elements in which the assumed displacement functions satisfy the equations of stress field equilibrium. In this method, the finite element will not only have nodal equilibrium of forces, but also have inner stress field equilibrium. The displacement interpolation functions inside each individual element are truncated polynomial solutions of differential equations. Such elements are likely to give better solutions than the existing elements.In this thesis, a new family of finite elements in which the assumed displacement function satisfies the differential equations of stress field equilibrium is proposed. A general procedure for constructing the displacement functions and use of these functions in the generation of elemental stiffness matrices has been developed. The approach to develop field equilibrium elements is quite general and various elements to analyse different types of structures can be formulated from corresponding stress field equilibrium equations. Using this procedure, a nine node quadrilateral element SFCNQ for plane stress analysis, a sixteen node solid element SFCSS for three dimensional stress analysis and a four node quadrilateral element SFCFP for plate bending problems have been formulated.For implementing these elements, computer programs based on modular concepts have been developed. Numerical investigations on the performance of these elements have been carried out through standard test problems for validation purpose. Comparisons involving theoretical closed form solutions as well as results obtained with existing finite elements have also been made. It is found that the new elements perform well in all the situations considered. Solutions in all the cases converge correctly to the exact values. In many cases, convergence is faster when compared with other existing finite elements. The behaviour of field consistent elements would definitely generate a great deal of interest amongst the users of the finite elements.
Resumo:
Modern computer systems are plagued with stability and security problems: applications lose data, web servers are hacked, and systems crash under heavy load. Many of these problems or anomalies arise from rare program behavior caused by attacks or errors. A substantial percentage of the web-based attacks are due to buffer overflows. Many methods have been devised to detect and prevent anomalous situations that arise from buffer overflows. The current state-of-art of anomaly detection systems is relatively primitive and mainly depend on static code checking to take care of buffer overflow attacks. For protection, Stack Guards and I-leap Guards are also used in wide varieties.This dissertation proposes an anomaly detection system, based on frequencies of system calls in the system call trace. System call traces represented as frequency sequences are profiled using sequence sets. A sequence set is identified by the starting sequence and frequencies of specific system calls. The deviations of the current input sequence from the corresponding normal profile in the frequency pattern of system calls is computed and expressed as an anomaly score. A simple Bayesian model is used for an accurate detection.Experimental results are reported which show that frequency of system calls represented using sequence sets, captures the normal behavior of programs under normal conditions of usage. This captured behavior allows the system to detect anomalies with a low rate of false positives. Data are presented which show that Bayesian Network on frequency variations responds effectively to induced buffer overflows. It can also help administrators to detect deviations in program flow introduced due to errors.
Resumo:
This thesis analyzed waste generation and waster disposal problems in municipalities and Cochin Corporation in Ernakulam district.Then the potential of resource recovery and recycling from biodegradable and non bio-degradable waste is established.The study further focused on the need for segregation of waste at the source as biodegradable and non biodegradable solid waste.The potential of resource recovery is explained in detail through the case study.The thesis also highlights the economically viable and environmental friendly methods o f treatment of waste.But the problem is that concerted and earnest attempts are lacking in making use of such methods.In spite of the health problems faced,people living near the dump sites are forced to stay there either because of their weak economic background or family ties.The study did not calculate the economic cost of health problems arising out of unscientific and irresponsible methods of waste disposal.