980 resultados para Methodological Development
Resumo:
This paper examines the structuralist tradition in economics, emphasizing the role that structures play in the economic growth of developing countries. Since the subject at hand is evidently too large to cover in a single article, an emphasis has been brought to bear upon the macroeconomic elements of such a tradition, while also exploring its methodological aspects. It begins by analysing some general aspects of structuralism in economics (its evolution and origins) associated with ECLAC thought, in this instance focusing on the dynamics of the center-periphery relationship. Thereafter, the macroeconomic structuralism derived from the works of Taylor (1983, 1991) is presented, followed by a presentation of neo-structuralism. Centred on the concept of systemic competitiveness, this approach defines a strategy to achieve the high road of globalization, understood here as an inevitable process in spite of its engagement being dependent on the policies adopted. The conclusions show the genuine contributions of this tradition to economic theory.
Resumo:
This thesis explored early literacy development in young vulnerable readers. More specifically, this thesis examined an emergent literacy program called Reading Rocks Junior offered by the Learning Disabilities Association of Niagara Region to children four- to six-years of age living in low socioeconomic status communities. Three methodologies were combined to create a rich and complete picture of an effective and accessible literacy program. First of all, a description of the Reading Rocks Junior program is outlined. Secondly, quantitative data that was collected pre- and post- program was analyzed to demonstrate achievement gains made as a result of participating in the program. Finally, qualitative interviews with the program coordinator, the convener of the agency that funded Reading Rocks Junior and three parents whose children participated in the program were analyzed to determine the contextual factors that make Reading Rocks Junior a success.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Cette thèse analyse les négociations interculturelles des Gens du Centre (groupe amazonien multi-ethnique) avec les discours universels de droits humains et de développement mobilisés par l’État colombien. L’analyse se concentre sur le Plan de sauvegarde ethnique Witoto chapitre Leticia (ESP), qui est un des 73 plans formulés et implémentés par l’État colombien pour reconnaître les droits des peuples autochtones en danger par le déplacement forcé causé par les conflits armés internes. J’analyse l’ESP à travers la notion de friction (Tsing, 2005) qui fait référence aux caractéristiques complexes, inégalitaires et changeantes des rencontres contemporaines entre les différences des savoirs locaux et globaux. Mon analyse se base aussi sur des approches foucaldiennes et/ou subalternes de pouvoir comme la recherche anticoloniale et de la décolonisation, les perspectives critiques et contre-hégémoniques des droits humains, le post-développement, et les critiques du féminisme au développement. L’objectif de la thèse est d’analyser les savoirs (concepts de loi, de justice et de développement); les logiques de pensée (pratiques, épistémologies, rôles et espaces pour partager et produire des savoirs); et les relations de pouvoir (formes de leadership, associations, réseaux, et formes d’empowerment et disempowerment) produits et recréés par les Gens du Centre au sein des frictions avec les discours de droits humains et du développement. La thèse introduit comment la région habitée par les Gens du Centre (le Milieu Amazone transfrontalier) a été historiquement connectée aux relations inégalitaires de pouvoir qui influencent les luttes actuelles de ce groupe autochtone pour la reconnaissance de leurs droits à travers l’ESP. L’analyse se base à la fois sur une recherche documentaire et sur deux terrains ethnographiques, réalisés selon une perspective critique et autoréflexive. Ma réflexion méthodologique explore comment la position des chercheurs sur le terrain influence le savoir ethnographique et peut contribuer à la création des relations interculturelles inclusives, flexibles et connectées aux besoins des groupes locaux. La section analytique se concentre sur comment le pouvoir circule simultanément à travers des échelles nationale, régionale et locale dans l’ESP. J’y analyse comment ces formes de pouvoir produisent des sujets individuels et collectifs et s’articulent à des savoirs globaux ou locaux pour donner lieu à de nouvelles formes d’exclusion ou d’émancipation des autochtones déplacés. Les résultats de la recherche suggèrent que les Gens du Centre approchent le discours des droits humains à travers leurs savoirs autochtones sur la « loi de l’origine ». Cette loi établit leur différence culturelle comme étant à la base du processus de reconnaissance de leurs droits comme peuple déplacé. D’ailleurs, les Gens du Centre approprient les discours et les projets de développement à travers la notion d’abondance qui, comprise comme une habileté collective qui connecte la spiritualité, les valeurs culturelles, et les rôles de genre, contribue à assurer l’existence physique et culturelle des groupes autochtones. Ma thèse soutient que, même si ces savoirs et logiques de pensée autochtones sont liés à des inégalités et à formes de pouvoir local, ils peuvent contribuer à des pratiques de droits humains et de développement plurielles, égalitaires et inclusives.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Organic food is increasingly available in the conventional food retail, where organic products are offered alongside with various other types of products and compete mainly with conventional and the so-called conventional-plus products. The latter are conventional products displaying particular quality attributes on the product packaging, such as ‘no artificial additives’, or ‘from animal welfare husbandry’. Often, these quality attributes also apply to organic products. Occasional organic consumers might prefer such conventional-plus alternatives that are perceived to be ‘between’ organic and conventional products. The overall objective of this PhD thesis was to provide information about the segment of occasional organic consumers. In particular, the thesis focussed on consumer perceptions and attitudes towards the quality of, and preferences for, organic, conventional and conventional-plus products in two countries: Germany and Switzerland. To achieve these objectives, qualitative and quantitative consumer research was combined in order to explore occasional organic consumers’ perceptions and attitudes as well as to observe their preferences and buying behaviour regarding different types of food products: organic, conventional and conventional-plus products. The qualitative research showed that, depending on single criteria, organic production was both positively as well as negatively assessed by consumers. Consumer perception of organic food was found to be highly selective and primarily focussed on the final stage of the particular production process. A major problem is that consumers are still mostly unfamiliar with factors associated with organic production, have a lack of confidence, and often confuse organic with conventional products. Besides this, consumer expectations of organic products are different from the expectations of conventional products. The quantitative research revealed that attitudes strongly determine consumers’ preferences for organic, conventional and conventional-plus products. Consumer attitudes tended to differ more between organic and conventional choices rather than conventional-plus and conventional choices. Furthermore, occasional organic consumers are heterogeneous in their preferences. They can be grouped into two segments: the consumers in one segment were less price sensitive and preferred organic products. The consumers in the other segment were more price sensitive and rather preferred conventional-plus or conventional products. To conclude, given the selective and subjective nature of consumer perception and the strong focus of consumer perception on the final stage of the food production process, specific additional values of organic farming should be communicated in clear and catchy messages. At the same time, these messages should be particularly focussed on the final stage of organic food production. The communication of specific added values in relation with organic products to improve the perceived price-performance-ratio is important since conventional-plus products represent an interesting alternative particularly for price sensitive occasional organic consumers. Besides this, it is important to strengthen affirmative consumer attitudes towards organic production. Therefore, policy support should emphasise on long-term communication campaigns and education programmes to increase the consumer awareness and knowledge of organic food and farming. Since consumers expect that organic food is regionally or at least domestically produced while they less accept organic imports, policy support of domestic and regional producers is a crucial measure to fill the current gap between the increasing consumer demand of organic food and the stagnation of the domestic and regional organic food supply.
Resumo:
This paper describes the results of research intended to explore the volatility inherent in the United Nations Development Programme's (UNDP) Human Development Index (HDI). The HDI is intended to be a simple and transparent device for comparing progress in human development, and is an aggregate of life expectancy, education and GDP per capita. Values of the HDI for each country are presented in the Human Development Reports (HDRs), the first being published in 1990. However, while the methodology is consistent for all countries in each year there are notable differences between years that make temporal comparisons of progress difficult. The paper presents the results of recalculating the HDI for a simplified sample of 114 countries using various methodologies employed by the UNDP. The results are a set of deviations of recalculated HDI ranks compared to the original ranks given in the HDRs. The volatility that can result from such recalculation is shown to be substantial (+/-10-15 ranks), yet reports in the popular press are frequently sensitive to movements of only a few ranks. Such movement can easily be accounted for by changes in the HDI methodology rather than genuine progress in human development. While the HDRs often carry warnings about the inadvisability of such year-on-year comparisons, it is argued that the existence of such a high-profile index and the overt presentation within league tables do encourage such comparison. Assuming that the HDI will be retained as a focal point within the HDRs, then it is suggested that greater focus be upon more meaningful and robust categories of human development (e.g. low, medium and high) rather than league tables where shifts of a few places, perhaps as a result of nothing more than a methodological or data artefact, may be highlighted in the press and by policy makers. (C) 2003 Elsevier Science B.V. All rights reserved.
Predictive vegetation mapping in the Mediterranean context: Considerations and methodological issues
Resumo:
The need to map vegetation communities over large areas for nature conservation and to predict the impact of environmental change on vegetation distributions, has stimulated the development of techniques for predictive vegetation mapping. Predictive vegetation studies start with the development of a model relating vegetation units and mapped physical data, followed by the application of that model to a geographic database and over a wide range of spatial scales. This field is particularly important for identifying sites for rare and endangered species and locations of high biodiversity such as many areas of the Mediterranean Basin. The potential of the approach is illustrated with a mapping exercise in the alti-meditterranean zone of Lefka Ori in Crete. The study established the nature of the relationship between vegetation communities and physical data including altitude, slope and geomorphology. In this way the knowledge of community distribution was improved enabling a GIS-based model capable of predicting community distribution to be constructed. The paper describes the development of the spatial model and the methodological problems of predictive mapping for monitoring Mediterranean ecosystems. The paper concludes with a discussion of the role of predictive vegetation mapping and other spatial techniques, such as fuzzy mapping and geostatistics, for improving our understanding of the dynamics of Mediterranean ecosystems and for practical management in a region that is under increasing pressure from human impact.
Resumo:
Establishing the mechanisms by which microbes interact with their environment, including eukaryotic hosts, is a major challenge that is essential for the economic utilisation of microbes and their products. Techniques for determining global gene expression profiles of microbes, such as microarray analyses, are often hampered by methodological restraints, particularly the recovery of bacterial transcripts (RNA) from complex mixtures and rapid degradation of RNA. A pioneering technology that avoids this problem is In Vivo Expression Technology (IVET). IVET is a 'promoter-trapping' methodology that can be used to capture nearly all bacterial promoters (genes) upregulated during a microbe-environment interaction. IVET is especially useful because there is virtually no limit to the type of environment used (examples to date include soil, oomycete, a host plant or animal) to select for active microbial promoters. Furthermore, IVET provides a powerful method to identify genes that are often overlooked during genomic annotation, and has proven to be a flexible technology that can provide even more information than identification of gene expression profiles. A derivative of IVET, termed resolvase-IVET (RIVET), can be used to provide spatio-temporal information about environment-specific gene expression. More recently, niche-specific genes captured during an IVET screen have been exploited to identify the regulatory mechanisms controlling their expression. Overall, IVET and its various spin-offs have proven to be a valuable and robust set of tools for analysing microbial gene expression in complex environments and providing new targets for biotechnological development.
Resumo:
This paper examines the intellectual and professional contribution of comparative and international studies to the field of education. It explores the nature of the challenges that are currently being faced, and assesses its potential for the advancement of future teaching, research and professional development. Attention is paid to the place of comparative and international education (CIE)-past and present-in teacher education, in postgraduate studies, and in the realms of policy and practice, theory and research. Consideration is first given to the nature and history of CIE, to its initial contributions to the field of education in the UK, and to its chief mechanisms and sites of production. Influential methodological and theoretical developments are examined, followed by an exploration of emergent questions, controversies and dilemmas that could benefit from sustained comparative analysis in the future. Conclusions consider implications for the place of CIE in the future of educational studies as a whole; for relations between and beyond the 'disciplines of education'; and for the development of sustainable research capacity in this field.
Resumo:
Aim: To review current literature on the development of convergence and accommodation. The accommodation and vergence systems provide the foundation upon which bifoveal binocular single vision develops. Deviations from their normal development not only are implicated in the aetiology of convergence anomalies, accommodative anomalies and strabismus, but may also be implicated in failure of the emmetropisation process. Method: This review considers the problems of researching the development of accommodation and vergence in infants and how infant research has had to differ from adult methods. It then reviews and discusses the implications of current research into the development of both systems and their linkages. Results: Vergence and accommodation develop rapidly in the first months of life, with accommodation changing from relatively fixed myopic focus in the neonatal period to adult-like responses by 4 months of age. Vergence develops gradually and becomes more accurate after 4 months of age, but has been demonstrated in infants well before the age that binocular disparity detection mechanisms are thought to develop. Hypotheses for this early vergence mechanism are discussed. The relationship between accommodation and vergence shows much more variability in infants than adult literature has found, but this apparent adult/infant difference may be partly attributed to methodological differences rather than maturational change alone. Conclusions: Variability and flexibility characterise infant responses. This variability may enable infants to develop a flexible and robust binocular system for later life. Studies of infant visual cue use may give clues to the aetiology of strabismus and refractive error.
Resumo:
This paper uses examples from a Swedish study to suggest some ways in which cultural variation could be included in studies of thermal comfort. It is shown how only a slight shift of focus and methodological approach could help us discover aspects of human life that add to previous knowledge within comfort research of how human beings perceive and handle warmth and cold. It is concluded that it is not enough for buildings, heating systems and thermal control devices to be energy-efficient in a mere technical sense. If these are to help to decrease, rather than to increase, energy consumption, they have to support those parts of already existing habits and modes of thought that have the potential for low energy use. This is one reason why culture-specific features and emotional cores need to be investigated and deployed into the study and development of thermal comfort.
Resumo:
Three studies were prepared and are presented in this document. The first, The Brazilian Financial Sector Institutional Context in the Transition to Sustainable Development looks at the legislation, regulation, and public policies aimed at socio-environmental themes related to the financial sector. The second study, Current Financing for the Green Economy in Brazil, provides an initial estimate of the financial assets already allocated to the green economy, as well as a methodological proposal for the survey and monitoring of the respective flow of assets. The third and final study looks at two important segments of the Brazilian economy and their process of transition to a greener economy: renewable energy and agriculture.