897 resultados para automated information system


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Contexte : Un accès adéquat aux aliments sains dans les environnements résidentiels peut contribuer aux saines habitudes alimentaires. Un tel accès est d’autant plus important pour les personnes âgées, où les changements associés au vieillissement peuvent accentuer leur dépendance aux ressources disponibles dans le voisinage. Cependant, cette relation n’a pas encore été établie chez les aînés. Objectifs : La présente thèse vise à quantifier les associations entre l’environnement alimentaire local et les habitudes alimentaires de personnes âgées vivant à domicile en milieu urbain. La thèse s’est insérée dans un projet plus large qui a apparié les données provenant d’une cohorte d’aînés québécois vivant dans la région métropolitaine montréalaise avec des données provenant d’un système d’information géographique. Trois études répondent aux objectifs spécifiques suivants : (1) développer des indices relatifs de mixité alimentaire pour qualifier l’offre d’aliments sains dans les magasins d’alimentation et l’offre de restaurants situés dans les quartiers faisant partie du territoire à l’étude et en examiner la validité; (2) quantifier les associations entre la disponibilité relative de magasins d’alimentation et de restaurants près du domicile et les habitudes alimentaires des aînés; (3) examiner l’influence des connaissances subjectives en nutrition dans la relation entre l’environnement alimentaire près du domicile et les habitudes alimentaires chez les hommes et les femmes âgés. Méthodes : Le devis consiste en une analyse secondaire de données transversales provenant de trois sources : les données du cycle 1 pour 848 participants de l’Étude longitudinale québécoise « La nutrition comme déterminant d’un vieillissement réussi » (2003-2008), le Recensement de 2001 de Statistique Canada et un registre privé de commerces et services (2005), ces derniers regroupés dans un système d’information géographique nommé Mégaphone. Des analyses bivariées non paramétriques ont été appliquées pour répondre à l’objectif 1. Les associations entre l’exposition aux commerces alimentaires dans le voisinage et les habitudes alimentaires (objectif 2), ainsi que l’influence des connaissances subjectives en nutrition dans cette relation (objectif 3), ont été vérifiées au moyen d’analyses de régression linéaires. Résultats : Les analyses ont révélé trois résultats importants. Premièrement, l’utilisation d’indices relatifs pour caractériser l’offre alimentaire s’avère pertinente pour l’étude des habitudes alimentaires, plus particulièrement pour l’offre de restaurants-minute. Deuxièmement, l’omniprésence d’aspects défavorables dans l’environnement, caractérisé par une offre relativement plus élevée de restaurants-minute, semble nuire davantage aux saines habitudes alimentaires que la présence d’opportunités d’achats d’aliments sains dans les magasins d’alimentation. Troisièmement, un environnement alimentaire plus favorable aux saines habitudes pourrait réduire les écarts quant à la qualité de l’alimentation chez les femmes ayant de plus faibles connaissances subjectives en nutrition par rapport aux femmes mieux informées. Conclusion : Ces résultats mettent en relief la complexité des liens entre l’environnement local et l’alimentation. Dans l’éventualité où ces résultats seraient reproduits dans des recherches futures, des stratégies populationnelles visant à résoudre un déséquilibre entre l’accès aux sources d’aliments sains par rapport aux aliments peu nutritifs semblent prometteuses.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire de maîtrise a été rédigé dans l’objectif d’explorer une inégalité. Une inégalité dans les pratiques liées à la saisie et l’exploitation des données utilisateur dans la sphère des technologies et services Web, plus particulièrement dans la sphère des GIS (Geographic Information Systems). En 2014, de nombreuses entreprises exploitent les données de leurs utilisateurs afin d’améliorer leurs services ou générer du revenu publicitaire. Du côté de la sphère publique et gouvernementale, ce changement n’a pas été effectué. Ainsi, les gouvernements fédéraux et municipaux sont démunis de données qui permettraient d’améliorer les infrastructures et services publics. Des villes à travers le monde essayent d’améliorer leurs services et de devenir « intelligentes » mais sont dépourvues de ressources et de savoir faire pour assurer une transition respectueuse de la vie privée et des souhaits des citadins. Comment une ville peut-elle créer des jeux de données géo-référencés sans enfreindre les droits des citadins ? Dans l’objectif de répondre à ces interrogations, nous avons réalisé une étude comparative entre l’utilisation d’OpenStreetMap (OSM) et de Google Maps (GM). Grâce à une série d’entretiens avec des utilisateurs de GM et d’OSM, nous avons pu comprendre les significations et les valeurs d’usages de ces deux plateformes. Une analyse mobilisant les concepts de l’appropriation, de l’action collective et des perspectives critiques variées nous a permis d’analyser nos données d’entretiens pour comprendre les enjeux et problèmes derrière l’utilisation de technologies de géolocalisation, ainsi que ceux liés à la contribution des utilisateurs à ces GIS. Suite à cette analyse, la compréhension de la contribution et de l’utilisation de ces services a été recontextualisée pour explorer les moyens potentiels que les villes ont d’utiliser les technologies de géolocalisation afin d’améliorer leurs infrastructures publiques en respectant leurs citoyens.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Au Canada, Francisella tularensis, une bactérie zoonotique causant la tularémie, affecte principalement le lièvre d’Amérique, le rat musqué et le castor. Malgré les nombreuses études sur cette maladie, les connaissances sur l’écologie et les réservoirs naturels de la tularémie demeurent limitées. Une étude transversale a été réalisée afin d’estimer la prévalence d’infection par F. tularensis chez le lièvre d’Amérique, le rat musqué et le coyote dans quatre régions du Québec (Canada) et de décrire le risque d’infection d’après des caractéristiques individuelles (âge, sexe et état de chair) et environnementales. D’octobre 2012 à avril 2013, 345 lièvres d’Amérique, 411 rats musqués et 385 coyotes capturés par des trappeurs ont été échantillonnés. Les caractéristiques environnementales autour du site de capture ont été extraites de base de données géographiques. La séroprévalence (test de microagglutination) était de 2.9% chez les coyotes, 0.6% chez les lièvres et 0% chez les rats musqués. Tous les rats musqués et les lièvres étaient négatifs à une PCR en temps réel réalisée à partir d’un pool de foie, rein, rate et poumon; par contre, le type AI a été détecté dans les organes individuels des deux lièvres séropositifs. Des analyses de régression logistique exacte ont démontré que l’âge était un facteur de risque pour la séropositivité du coyote, ainsi que la proportion de forêts et la proportion de l’environnement considéré approprié pour le lièvre autour de la localisation de capture des coyotes. Les résultats de cette étude suggèrent la présence du cycle terrestre dans les régions étudiées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La gestion des villes d’Afrique de l’Ouest pose problème à la période contemporaine : extension urbaine non maitrisée, services de base insuffisants, insécurité foncière. À travers l’aide internationale, d’importantes réformes visant à améliorer son efficacité ont pourtant été mises en place, mais elles semblent avoir été inefficaces. Dépassant ce constat d’échec, la thèse vise à comprendre comment se déroule l’acte de gérer la ville dans les circonstances particulières des villes d’Afrique de l’Ouest. La mise en œuvre du Registre foncier urbain (RFU), système d’information foncière municipal multi-fonctions introduit au Bénin à travers des programmes de développement au début des années 1990, constitue le prisme à travers lequel la gestion urbaine est analysée. Celle-ci est ainsi approchée par les actes plutôt que par les discours. S’appuyant sur une démarche socio-anthropologique, la mise en œuvre de l’instrument est analysée depuis le point de vue des acteurs locaux et selon une double grille de lecture : d’une part, il s’agit de saisir les logiques de l’appropriation locale dont le RFU a fait l’objet au sein des administrations; d’autre part, il s’agit de comprendre son interaction avec le territoire, notamment avec les dynamiques complexes d’accès au sol et de sécurisation foncière. Une étude de cas multiple a été menée dans trois communes : Cotonou, Porto-Novo et Bohicon. Deux ensembles de conclusions en découlent. Tout d’abord, le RFU s’est imposé comme l’instrument pivot de la fiscalité locale, mais est mis en œuvre de manière minimale. Ce fonctionnement particulier est une adaptation optimale à un contexte fait de rivalités professionnelles au sein d’administrations cloisonnées, d’enjeux politico-financiers liés aux différentes sources de revenus communaux et de tensions politico-institutionnelles liées à une décentralisation tardive. Les impacts du RFU en termes de développement des compétences professionnelles nationales sont insuffisants pour réformer la gestion urbaine depuis l’intérieur de l’administration municipale. Ensuite, alors qu’il vise à centraliser l’information sur les propriétaires présumés de la terre, le RFU se heurte à la marchandisation de cette information et à la territorialisation de la régulation foncière. La mise en œuvre du RFU s’en trouve affectée de deux manières : d’une part, elle s’insère dans ces circuits marchands de l’information foncière, avec cependant peu de succès ; d’autre part, elle a un impact différencié selon les territoires de la régulation foncière. En définitive, l’acte de gérer la ville au Bénin n’est pas devenu automatique avec l’introduction d’instruments comme le RFU. La municipalité se repose plutôt sur les piliers classiques de l’action publique, l’administration et le politique, pour gérer la ville plurielle de manière différenciée. À l’endroit des concepteurs d’action publique, cette thèse plaide pour une prise en compte des modes de régulation existant dans les sociétés africaines, fussent-ils pluriels, reconnaissant les voies originales que prend la construction des institutions en Afrique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La digestion enzymatique des protéines est une méthode de base pour les études protéomiques ainsi que pour le séquençage en mode « bottom-up ». Les enzymes sont ajoutées soit en solution (phase homogène), soit directement sur le gel polyacrylamide selon la méthode déjà utilisée pour l’isolation de la protéine. Les enzymes protéolytiques immobilisées, c’est-à-dire insolubles, offrent plusieurs avantages tels que la réutilisation de l’enzyme, un rapport élevé d’enzyme-sur-substrat, et une intégration facile avec les systèmes fluidiques. Dans cette étude, la chymotrypsine (CT) a été immobilisée par réticulation avec le glutaraldehyde (GA), ce qui crée des particules insolubles. L’efficacité d’immobilisation, déterminée par spectrophotométrie d’absorbance, était de 96% de la masse totale de la CT ajouté. Plusieurs différentes conditions d’immobilisation (i.e., réticulation) tels que la composition/pH du tampon et la masse de CT durant la réticulation ainsi que les différentes conditions d’entreposage tels que la température, durée et humidité pour les particules GA-CT ont été évaluées par comparaison des cartes peptidiques en électrophorèse capillaire (CE) des protéines standards digérées par les particules. Les particules de GA-CT ont été utilisés pour digérer la BSA comme exemple d’une protéine repliée large qui requit une dénaturation préalable à la digestion, et pour digérer la caséine marquée avec de l’isothiocyanate de fluorescéine (FITC) comme exemple d’un substrat dérivé afin de vérifier l’activité enzymatique du GA-CT dans la présence des groupements fluorescents liés au substrat. La cartographie peptidique des digestions par les particules GA-CT a été réalisée par CE avec la détection par absorbance ultraviolet (UV) ou fluorescence induite par laser. La caséine-FITC a été, en effet, digérée par GA-CT au même degré que par la CT libre (i.e., soluble). Un microréacteur enzymatique (IMER) a été fabriqué par immobilisation de la CT dans un capillaire de silice fondu du diamètre interne de 250 µm prétraité avec du 3-aminopropyltriéthoxysilane afin de fonctionnaliser la paroi interne avec les groupements amines. Le GA a été réagit avec les groupements amine puis la CT a été immobilisée par réticulation avec le GA. Les IMERs à base de GA-CT étaient préparé à l’aide d’un système CE automatisé puis utilisé pour digérer la BSA, la myoglobine, un peptide ayant 9 résidus et un dipeptide comme exemples des substrats ayant taille large, moyenne et petite, respectivement. La comparaison des cartes peptidiques des digestats obtenues par CE-UV ou CE-spectrométrie de masse nous permettent d’étudier les conditions d’immobilisation en fonction de la composition et le pH du tampon et le temps de réaction de la réticulation. Une étude par microscopie de fluorescence, un outil utilisé pour examiner l’étendue et les endroits d’immobilisation GA-CT dans l’IMER, ont montré que l’immobilisation a eu lieu majoritairement sur la paroi et que la réticulation ne s’est étendue pas si loin au centre du capillaire qu’anticipée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The present investigation on the Muvattupuzha river basin is an integrated approach based on hydrogeological, geophysical, hydrogeochemical parameters and the results are interpreted using satellite data. GIS also been used to combine the various spatial and non-spatial data. The salient finding of the present study are accounted below to provide a holistic picture on the groundwaters of the Muvattupuzha river basin. In the Muvattupuzha river basin the groundwaters are drawn from the weathered and fractured zones. The groundwater level fluctuations of the basin from 1992 to 2001 reveal that the water level varies between a minimum of 0.003 m and a maximum of 3.45 m. The groundwater fluctuation is affected by rainfall. Various aquifer parameters like transmissivity, storage coefficient, optimum yield, time for full recovery and specific capacity indices are analyzed. The depth to the bedrock of the basin varies widely from 1.5 to 17 mbgl. A ground water prospective map of phreatic aquifer has been prepared based on thickness of the weathered zone and low resistivity values (<500 ohm-m) and accordingly the basin is classified in three phreatic potential zones as good, moderate and poor. The groundwater of the Muvattupuzha river basin, the pH value ranges from 5.5 to 8.1, in acidic nature. Hydrochemical facies diagram reveals that most of the samples in both the seasons fall in mixing and dissolution facies and a few in static and dynamic natures. Further study is needed on impact of dykes on the occurrence and movement of groundwater, impact of seapages from irrigation canals on the groundwater quality and resources of this basin, and influence of inter-basin transfer of surface water on groundwater.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The present study focuses on the stability of the coast, exploitation of the coastal resources, human activities within the study are that extends from Fort Cochin at north to Thottappally at south, central Kerala State and hinterlands, socio-economic problems of the coastal community and the environmental issues arising in the recent past due to human activities. The objective of the study is critically analyse the coastal zone region and prevailing situation and to propose a comprehensive management plan for the sustainable development of the region under study. The thesis covers varied aspects of coastal uses like fisheries, tourism, land use, water resources etc. To critically examine the above scenarios, the ILWIS (Integrated Land and Water Information Systems) – GIS software has been used. A satellite image of the area has been used for the coastline change detection and land use patterns. The outcome of the present study will be beneficial to the various stakeholders within the coastal region and its hinterlands. To further add, this study should find better applications to similar or near-similar situations of Southeast Asia where identical scenarios are noticeable.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Model development for selection of location for refinery in India and identification of characteristics to be looked into when configuring it and to develop models for integrated supply chain planning for a refinery. Locating and removing inbound, internal and outbound logistic problems in an existing refinery and overall design of a logistic information system for a refinery are the main objectives of the study. A brief description of supply chain management (SCM), elements of SCM and their significance, logistics cost in petroleum industry and its impacts, and dynamics of petroleum its logistic practices are also to be presented. Scope of application of SCM in petroleum refinery will also be discussed. A review of the investigations carried out by earlier researches in the area of supply chain management in general and with specific reference to petroleum refining.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Aim of the present work was to automate CSP process, to deposit and characterize CuInS2/In2S3 layers using this system and to fabricate devices using these films.An automated spray system for the deposition of compound semiconductor thin films was designed and developed so as to eliminate the manual labour involved in spraying and facilitate standardization of the method. The system was designed such that parameters like spray rate, movement of spray head, duration of spray, temperature of substrate, pressure of carrier gas and height of the spray head from the substrate could be varied. Using this system, binary, ternary as well as quaternary films could be successfully deposited.The second part of the work deal with deposition and characterization of CuInS2 and In2S3 layers respectively.In the case of CuInS2 absorbers, the effects of different preparation conditions and post deposition treatments on the optoelectronic, morphological and structural properties were investigated. It was observed that preparation conditions and post deposition treatments played crucial role in controlling the properties of the films. The studies in this direction were useful in understanding how the variation in spray parameters tailored the properties of the absorber layer. These results were subsequently made use of in device fabrication process.Effects of copper incorporation in In2S3 films were investigated to find how the diffusion of Cu from CuInS2 to In2S3 will affect the properties at the junction. It was noticed that there was a regular variation in the opto-electronic properties with increase in copper concentration.Devices were fabricated on ITO coated glass using CuInS2 as absorber and In2S3 as buffer layer with silver as the top electrode. Stable devices could be deposited over an area of 0.25 cm2, even though the efficiency obtained was not high. Using manual spray system, we could achieve devices of area 0.01 cm2 only. Thus automation helped in obtaining repeatable results over larger areas than those obtained while using the manual unit. Silver diffusion on the cells before coating the electrodes resulted in better collection of carriers.From this work it was seen CuInS2/In2S3 junction deposited through automated spray process has potential to achieve high efficiencies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

n the recent years protection of information in digital form is becoming more important. Image and video encryption has applications in various fields including Internet communications, multimedia systems, medical imaging, Tele-medicine and military communications. During storage as well as in transmission, the multimedia information is being exposed to unauthorized entities unless otherwise adequate security measures are built around the information system. There are many kinds of security threats during the transmission of vital classified information through insecure communication channels. Various encryption schemes are available today to deal with information security issues. Data encryption is widely used to protect sensitive data against the security threat in the form of “attack on confidentiality”. Secure transmission of information through insecure communication channels also requires encryption at the sending side and decryption at the receiving side. Encryption of large text message and image takes time before they can be transmitted, causing considerable delay in successive transmission of information in real-time. In order to minimize the latency, efficient encryption algorithms are needed. An encryption procedure with adequate security and high throughput is sought in multimedia encryption applications. Traditional symmetric key block ciphers like Data Encryption Standard (DES), Advanced Encryption Standard (AES) and Escrowed Encryption Standard (EES) are not efficient when the data size is large. With the availability of fast computing tools and communication networks at relatively lower costs today, these encryption standards appear to be not as fast as one would like. High throughput encryption and decryption are becoming increasingly important in the area of high-speed networking. Fast encryption algorithms are needed in these days for high-speed secure communication of multimedia data. It has been shown that public key algorithms are not a substitute for symmetric-key algorithms. Public key algorithms are slow, whereas symmetric key algorithms generally run much faster. Also, public key systems are vulnerable to chosen plaintext attack. In this research work, a fast symmetric key encryption scheme, entitled “Matrix Array Symmetric Key (MASK) encryption” based on matrix and array manipulations has been conceived and developed. Fast conversion has been achieved with the use of matrix table look-up substitution, array based transposition and circular shift operations that are performed in the algorithm. MASK encryption is a new concept in symmetric key cryptography. It employs matrix and array manipulation technique using secret information and data values. It is a block cipher operated on plain text message (or image) blocks of 128 bits using a secret key of size 128 bits producing cipher text message (or cipher image) blocks of the same size. This cipher has two advantages over traditional ciphers. First, the encryption and decryption procedures are much simpler, and consequently, much faster. Second, the key avalanche effect produced in the ciphertext output is better than that of AES.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Data mining is one of the hottest research areas nowadays as it has got wide variety of applications in common man’s life to make the world a better place to live. It is all about finding interesting hidden patterns in a huge history data base. As an example, from a sales data base, one can find an interesting pattern like “people who buy magazines tend to buy news papers also” using data mining. Now in the sales point of view the advantage is that one can place these things together in the shop to increase sales. In this research work, data mining is effectively applied to a domain called placement chance prediction, since taking wise career decision is so crucial for anybody for sure. In India technical manpower analysis is carried out by an organization named National Technical Manpower Information System (NTMIS), established in 1983-84 by India's Ministry of Education & Culture. The NTMIS comprises of a lead centre in the IAMR, New Delhi, and 21 nodal centres located at different parts of the country. The Kerala State Nodal Centre is located at Cochin University of Science and Technology. In Nodal Centre, they collect placement information by sending postal questionnaire to passed out students on a regular basis. From this raw data available in the nodal centre, a history data base was prepared. Each record in this data base includes entrance rank ranges, reservation, Sector, Sex, and a particular engineering. From each such combination of attributes from the history data base of student records, corresponding placement chances is computed and stored in the history data base. From this data, various popular data mining models are built and tested. These models can be used to predict the most suitable branch for a particular new student with one of the above combination of criteria. Also a detailed performance comparison of the various data mining models is done.This research work proposes to use a combination of data mining models namely a hybrid stacking ensemble for better predictions. A strategy to predict the overall absorption rate for various branches as well as the time it takes for all the students of a particular branch to get placed etc are also proposed. Finally, this research work puts forward a new data mining algorithm namely C 4.5 * stat for numeric data sets which has been proved to have competent accuracy over standard benchmarking data sets called UCI data sets. It also proposes an optimization strategy called parameter tuning to improve the standard C 4.5 algorithm. As a summary this research work passes through all four dimensions for a typical data mining research work, namely application to a domain, development of classifier models, optimization and ensemble methods.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Traffic Management system (TMS) comprises four major sub systems: The Network Database Management system for information to the passengers, Transit Facility Management System for service, planning, and scheduling vehicle and crews, Congestion Management System for traffic forecasting and planning, Safety Management System concerned with safety aspects of passengers and Environment. This work has opened a rather wide frame work of model structures for application on traffic. The facets of these theories are so wide that it seems impossible to present all necessary models in this work. However it could be deduced from the study that the best Traffic Management System is that whichis realistic in all aspects is easy to understand is easy to apply As it is practically difficult to device an ideal fool—proof model, the attempt here has been to make some progress-in that direction.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Kerala was the pioneer in modern seafood processing and exporting. But now the industry is Iacingalot of problems due to low productivity and deterioration in the quality of the products. only about 17% of the installed freezing capacity in sea food processing industry was reported to be utilised during 1979-80. The price of the export commodities its decided by the buyers based on international supply and demand pattern and based on the strength and weakness of dollar/yen. The only way to increase the profitability of the processors is to reduce the cost of production to the possible extent. The individual processors find it difficult to continue in this field due to low productivity and quality problems. The main objectives of the research are to find out how the production is being managed in the seafood processing(freezing) 17industry in Kerala and the reasons for low productivity and poor quality of the products. The study includes a detailed analysis of Location of the factories. Layout Purchase, production and storage patterns. Production planning and scheduling. Work Measurement of the processing of important products. Quality Control and Inspection. Management Information System

Relevância:

80.00% 80.00%

Publicador:

Resumo:

For years, choosing the right career by monitoring the trends and scope for different career paths have been a requirement for all youngsters all over the world. In this paper we provide a scientific, data mining based method for job absorption rate prediction and predicting the waiting time needed for 100% placement, for different engineering courses in India. This will help the students in India in a great deal in deciding the right discipline for them for a bright future. Information about passed out students are obtained from the NTMIS ( National technical manpower information system ) NODAL center in Kochi, India residing in Cochin University of science and technology

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Low-lying coastal areas are more vulnerable to the impacts of climate change as they are highly prone for inundation to SLR (Sea-Level Rise). This study presents an appraisal of the impacts of SLR on the coastal natural resources and its dependent social communities in the low-lying area of VellareColeroon estuarine region of the Tamil Nadu coast, India. Digital Elevation Model (DEM) derived from SRTM 90M (Shuttle Radar Topographic Mission) data, along with GIS (Geographic Information System) techniques are used to identify an area of inundation in the study site. The vulnerability of coastal areas in Vellar-Coleroon estuarine region of Tamil Nadu coast to inundation was calculated based on the projected SLR scenarios of 0.5 m and 1 m. The results demonstrated that about 1570 ha of the LULC (Land use and Land cover) of the study area would be permanently inundated to 0.5 m and 2407 ha for 1 m SLR and has also resulted in the loss of three major coastal natural resources like coastal agriculture, mangroves and aquaculture. It has been identified that six hamlets of the social communities who depend on these resources are at high-risk and vulnerable to 0.5 m SLR and 12 hamlets for 1 m SLR. From the study, it has been emphasized that mainstreaming adaptation options to SLR should be embedded within a coastal zone management and planning effort, which includes all coastal natural resources (ecosystem-based adaptation), and its dependent social communities (community-based adaptation) involved through capacity building