324 resultados para Blueprint


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs monographies récentes se sont intéressées à la traduction des littératures africaines europhones (Gyasi 2006, Bandia 2008, Batchelor 2009), faisant valoir le concept d’autotraduction (au sens métaphorique) et insistant sur le fait que ces écritures sont porteuses d’une oralité ou de marques linguistiques issues des langues parlées par les écrivains. Toutefois, la question de l’hybridité comme point de jonction entre littératures orales et écrites a encore rarement été examinée sous un angle poétique et c’est précisément dans cet esprit que cette recherche a été entreprise. Dans un premier temps, à partir des ouvrages originaux de six auteurs, trois d’expression littéraire anglaise (Farah, Hove et Armah) et trois d’expression littéraire française (Waberi, Adiaffi et Djebar), je montre en quoi ces écritures méritent d’être qualifiées de poétiques avant de mettre cette esthétique en relation avec le patrimoine littéraire de chacun des auteurs du corpus; ponctuellement, d’autres affiliations littéraires sont mises en évidence. Cette poétique est examinée dans sa dimension mélopoéique (Pound 1954), c’est-à-dire sous l’angle des structures audibles, appelées aussi figures de style jouant sur la forme phonétique des mots (Klein-Lataud 2001). Dans un second temps, j’examine comment cette poétique sonore a été recréée, tant de manière qualitative que quantitative, dans les traductions de Bardolph, de Richard et de J. et R. Mane (pour les auteurs d’expression anglaise) et de Garane, de Katiyo et de Blair (pour les auteurs d’expression française). Les enjeux associés à la réactivation des structures poétiques sonores sont mis en évidence dans le dernier chapitre qui propose un tour d’horizon des modalités de « consommation » de l’objet littéraire et qui s’achève sur les questions soulevées par la progression du livre audio. La méthodologie élaborée dans ce cadre s’inspire essentiellement de Berman (1995) et de Henry (2003). La conceptualisation de la poétique sonore, telle que mise en œuvre dans le contexte particulier de ces littératures, fait appel aux paradigmes de valence traductive (Folkart 2007) et de traduction métonymique (Tymoczko 1999). Par ailleurs, cette recherche s’appuie sur la récente thèse de doctorat de Fraser (2007) consacrée à la théorisation du sonore en traduction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les crypto-monnaies telles Bitcoin, l’anonymité des utilisateurs peut être compromise de plusieurs façons. Dans ce mémoire, nous effectuons une revue de littérature et une classification des différents protocoles existants pour anonymiser les usagers et analysons leur efficacité. S’appuyant sur certains critères désirables dans de tels protocoles, nous proposons un modèle de mixeur synchrone décentralisé. Nous avons ciblé deux approches qui s’inscrivent dans ce modèle, le plan de transaction et le réseau de transactions, le second étant une contribution originale de ce mémoire. Nous expliquons son fonctionnement puis analysons son efficacité dans le contexte actuel d’utilisation de Bitcoin

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La optimización y armonización son factores clave para tener un buen desempeño en la industria química. BASF ha desarrollado un proyecto llamada acelerador. El objetivo de este proyecto ha sido la armonización y la integración de los procesos de la cadena de suministro a nivel mundial. El proceso básico de manejo de inventarios se quedó fuera del proyecto y debía ser analizado. El departamento de manejo de inventarios en BASF SE ha estado desarrollando su propia estrategia para la definición de procesos globales de manufactura. En este trabajo se presentará un informe de las fases de la formulación de la estrategia y establecer algunas pautas para la fase de implementación que está teniendo lugar en 2012 y 2013.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La implementación del MCS es una necesidad que demandan las organizaciones en la medida en que incrementan de tamaño, pero la experiencia muestra que esta metodología tiene casos de éxito como de fracaso, por lo que es importante identificar y contemplar los factores que influyen en la implementación para que el sistema sea efectivo. Este proyecto pretende analizar las variables y herramientas para la implementación de un MCS en una organización. Para este análisis se hizo una amplia revisión literaria teórica y práctica. Finalmente el resultado que se obtuvo fue definir cuáles son los factores determinantes para la implementación de un MCS efectivo en una empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El siguiente trabajo pretende, mediante la revisión de diferentes fuentes bibliográficas, mostrar las distintas categorías en las que la muerte se trabaja dentro de la psicoterapia fenomenológico existencial. Es así como se hace un recorrido por los antecedentes filosóficos de este enfoque psicoterapéutico, las diferentes escuelas que dentro de él se desarrollan y sus planteamientos frente a la muerte, las maneras de morir, la muerte y el ciclo vital, y los avances actuales como la Teoría del Manejo del Terror (TMT) . Todos estos elementos se revisan para después ser relacionados y así proponer una serie de acciones prácticas a llevar a cabo dentro del encuentro psicoterapéutico con miras a un trabajo adecuado y productivo con la muerte desde una perspectiva existencial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente monografía tiene como objetivo explicar el papel de las sanciones y discursos de Estados Unidos, la Unión Europea e Israel frente al Programa Nuclear Iraní en la redefinición de la identidad de la República Islámica. En este sentido, se defenderá que las acciones punitivas emprendidas por las potencias mencionadas, han incidido en la auto-comprensión de la identidad nacional de Irán al reafirmar su carácter revisionista con la identificación por parte de las potencias, de los valores de la República Islámica con una amenaza para la seguridad regional e internacional. Para comprobarlo, se utilizará el concepto de identidad y de proceso de interacción simbólica, propios del enfoque constructivista. Así mismo, será necesario realizar un diseño documental e histórico, realizando de esta manera un análisis explicativo y analítico de los discursos de los líderes tanto de las potencias que se oponen al Programa Nuclear como de la controversial República Islámica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta monografía es examinar la transformación de la doctrina de seguridad de la OTAN en la Post-Guerra Fría y sus efectos en la intervención en la República de Macedonia. La desintegración del bloque soviético implicó la variación en la definición de las amenazas que atentan contra la supervivencia de los países miembro de la Alianza Atlántica. A partir de la década de los noventa, los conflictos de naturaleza interétnica pasaron a formar parte de los riesgos que transgreden la seguridad de los Aliados y la estabilidad del área Euro-Atlántica. Por lo anterior, la OTAN intervino en aquellos Estados en los que prevalecían las confrontaciones armadas interétnicas, como por ejemplo: en Macedonia. Allí, la Alianza Atlántica ejecutó operaciones de gestión de crisis para contrarrestar la amenaza. El fenómeno a estudiar en esta investigación será analizado a partir del Realismo Subalterno y de la Teoría de la Seguridad Colectiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudiar la expresión de la cortesía verbal en textos para la enseñanza del español e inglés como lenguas extranjeras. Realizar un análisis estadístico de las estrategias de los diseñadores de textos para expresar cortesía: tiempos verbales, funciones comunicativas, estructuras lingüísticas, direccionalidad del enunciado, etc. Estudiar contrastivamente la cortesía verbal entre los diferentes niveles de enseñanza (elemental, intermedio y avanzado) y entre las dos lenguas: español e inglés. Dieciseis textos extraidos de tres series de métodos para la enseñanza del español: Curso General del Español, Método del Equipo Pragma, Abanico. Libro del alumno y Curso avanzado de español; y tres métodos para la enseñanza del inglés en sus niveles elemental, intermedio y avanzado: Headway, Look Ahead, Blueprint, que cumplan con el requisito de aplicar el enfoque comunicativo. De cada serie por nivel, en inglés o español, se selecciona solamente el texto base (el libro del alumno) para su estudio. De este texto se toman todas las unidades de enseñanza, con sus instrucciones, diálogos, ejercicios pasajes de lectura, etc., marginando los preámbulos, prólogos, introducción, notas del autor o cualquier otro elemento extraño a las unidades de enseñanza. De este corpus se registran todos los microactos de habla que expresen algún grado de cortesía ya sea positiva, negativa o suspendida. Se examina el entorno en que aparecen estos enunciados preformativos. Matriz elaborada para la recolección de la información con el objeto de obtener el perfil de cada enunciado. Todos aplican enfoques comunicativos con algunas diferencias de énfasis y matices entre ellos. Usan material auténtico de la lengua en situaciones reales. Todos vienen acompañados por material de apoyo; cuaderno de actividades para el alumno, casetes, libro para el profesor y, algunos, cintas de video. Hay presencia de editoriales importantes y equipos de trabajo que apoyan profesionalmente la calidad de los métodos. Los aspectos culturales de los pueblos cuyas lenguas se enseñan tienen un lugar importante en los textos. Se entiende que lengua y cultura se correlacionan estrechamente. En ninguno de los textos aparece un tratamiento sistemático de la cortesís verbal aunque su presencia es perceptible. La gramática asume su rol en el proceso, desde el comienzo o desde una etapa más tardía la gramática funcional al servicio de la comunicación es un aspecto positivo de estos métodos. Algunos métodos están orientados a estudiantes adultos, otros a adolescentes y otros no discriminan por edad. La lengua oral adquiere la primacia sobre la escrita aunque ambas tienen su lugar en el proceso de aprendizaje. La parte referida al sistema fonológico tiene más importancia en los textos ingleses que en los españoles. Los métodos de principios de la década de los noventa dan más importancia a los diálogos a través de los cuales se presentaban los contenidos de la lección o unodad (Fórmula en español y Blueprint en inglés). Los últimos, Look Ahead y Headway están más centrados en el enfoque por tareas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This CEPS Task Force Report focuses on how to improve water efficiency in Europe, notably in public supply, households, agriculture, energy and manufacturing as well as across sectors. It presents a number of recommendations on how to make better use of economic policy instruments to sustainably manage the EU’s water resources. Published in the run-up to the European Commission’s “Blueprint to Safeguard Europe’s Waters”, the report contributes to the policy deliberations in two ways. First, by assessing the viability of economic policy instruments, it addresses a major shortcoming that has so far prevented the 2000 EU Water Framework Directive (WFD) from becoming fully effective in practice: the lack of appropriate, coherent and effective instruments in (some) member states. Second, as the Task Force report is the result of an interactive process involving a variety of stakeholders, it is able to point to the key differences in interpreting and applying WFD principles that have led to a lack of policy coherence across the EU and to offer some pragmatic advice on moving forward.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The practical application of systemic sustainability analysis (SSA; Bell and Morse, 1999) as applied in-a project instigated and managed by 'Blue Plan', one of the regional activity centres of the Mediterranean Action Plan, is set out and explained in this paper. The context in which SSA was applied and adapted to SPSA (systemic and prospective sustainability analysis). is described in the Mediterranean, primarily in Malta. The SSA process is summarized, its extension and linkage to the prospective approach is described and the comments of stakeholders in the context are added. Some preliminary outcomes are suggested. The pauticular focus of the paper is on the lessons learned from doing SSA/SPSA within a classic blueprint project framework. It is-not assumed that SSA/SPSA is 'finished' or 'definitive'. Rather, we suggest that it is a developing and changing approach that practitioners can adapt and change to meet the specific needs of the circumstances that confront them. Copyright (C) 2004 John Wiley & Sons, Ltd and ERP Environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problem structuring methods or PSMs are widely applied across a range of variable but generally small-scale organizational contexts. However, it has been argued that they are seen and experienced less often in areas of wide ranging and highly complex human activity-specifically those relating to sustainability, environment, democracy and conflict (or SEDC). In an attempt to plan, track and influence human activity in SEDC contexts, the authors in this paper make the theoretical case for a PSM, derived from various existing approaches. They show how it could make a contribution in a specific practical context-within sustainable coastal development projects around the Mediterranean which have utilized systemic and prospective sustainability analysis or, as it is now known, Imagine. The latter is itself a PSM but one which is 'bounded' within the limits of the project to help deliver the required 'deliverables' set out in the project blueprint. The authors argue that sustainable development projects would benefit from a deconstruction of process by those engaged in the project and suggest one approach that could be taken-a breakout from a project-bounded PSM to an analysis that embraces the project itself. The paper begins with an introduction to the sustainable development context and literature and then goes on to illustrate the issues by grounding the debate within a set of projects facilitated by Blue Plan for Mediterranean coastal zones. The paper goes on to show how the analytical framework could be applied and what insights might be generated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article critically examines the challenges that come with implementing the Extractive Industries Transparency Initiative (EITI)a policy mechanism marketed by donors and Western governments as a key to facilitating economic improvement in resource-rich developing countriesin sub-Saharan Africa. The forces behind the EITI contest that impoverished institutions, the embezzlement of petroleum and/or mineral revenues, and a lack of transparency are the chief reasons why resource-rich sub-Saharan Africa is underperforming economically, and that implementation of the EITI, with its foundation of good governance, will help address these problems. The position here, however, is that the task is by no means straightforward: that the EITI is not necessarily a blueprint for facilitating good governance in the region's resource-rich countries. It is concluded that the EITI is a policy mechanism that could prove to be effective with significant institutional change in host African countries but, on its own, it is incapable of reducing corruption and mobilizing citizens to hold government officials accountable for hoarding profits from extractive industry operations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It has become evident that the mystery of life will not be deciphered just by decoding its blueprint, the genetic code. In the life and biomedical sciences, research efforts are now shifting from pure gene analysis to the analysis of all biomolecules involved in the machinery of life. One area of these postgenomic research fields is proteomics. Although proteomics, which basically encompasses the analysis of proteins, is not a new concept, it is far from being a research field that can rely on routine and large-scale analyses. At the time the term proteomics was coined, a gold-rush mentality was created, promising vast and quick riches (i.e., solutions to the immensely complex questions of life and disease). Predictably, the reality has been quite different. The complexity of proteomes and the wide variations in the abundances and chemical properties of their constituents has rendered the use of systematic analytical approaches only partially successful, and biologically meaningful results have been slow to arrive. However, to learn more about how cells and, hence, life works, it is essential to understand the proteins and their complex interactions in their native environment. This is why proteomics will be an important part of the biomedical sciences for the foreseeable future. Therefore, any advances in providing the tools that make protein analysis a more routine and large-scale business, ideally using automated and rapid analytical procedures, are highly sought after. This review will provide some basics, thoughts and ideas on the exploitation of matrix-assisted laser desorption/ ionization in biological mass spectrometry - one of the most commonly used analytical tools in proteomics - for high-throughput analyses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It has become evident that the mystery of life will not be deciphered just by decoding its blueprint, the genetic code. In the life and biomedical sciences, research efforts are now shifting from pure gene analysis to the analysis of all biomolecules involved in the machinery of life. One area of these postgenomic research fields is proteomics. Although proteomics, which basically encompasses the analysis of proteins, is not a new concept, it is far from being a research field that can rely on routine and large-scale analyses. At the time the term proteomics was coined, a gold-rush mentality was created, promising vast and quick riches (i.e., solutions to the immensely complex questions of life and disease). Predictably, the reality has been quite different. The complexity of proteomes and the wide variations in the abundances and chemical properties of their constituents has rendered the use of systematic analytical approaches only partially successful, and biologically meaningful results have been slow to arrive. However, to learn more about how cells and, hence, life works, it is essential to understand the proteins and their complex interactions in their native environment. This is why proteomics will be an important part of the biomedical sciences for the foreseeable future. Therefore, any advances in providing the tools that make protein analysis a more routine and large-scale business, ideally using automated and rapid analytical procedures, are highly sought after. This review will provide some basics, thoughts and ideas on the exploitation of matrix-assisted laser desorption/ionization in biological mass spectrometry - one of the most commonly used analytical tools in proteomics - for high-throughput analyses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is generally assumed that the variability of neuronal morphology has an important effect on both the connectivity and the activity of the nervous system, but this effect has not been thoroughly investigated. Neuroanatomical archives represent a crucial tool to explore structure–function relationships in the brain. We are developing computational tools to describe, generate, store and render large sets of three–dimensional neuronal structures in a format that is compact, quantitative, accurate and readily accessible to the neuroscientist. Single–cell neuroanatomy can be characterized quantitatively at several levels. In computer–aided neuronal tracing files, a dendritic tree is described as a series of cylinders, each represented by diameter, spatial coordinates and the connectivity to other cylinders in the tree. This ‘Cartesian’ description constitutes a completely accurate mapping of dendritic morphology but it bears little intuitive information for the neuroscientist. In contrast, a classical neuroanatomical analysis characterizes neuronal dendrites on the basis of the statistical distributions of morphological parameters, e.g. maximum branching order or bifurcation asymmetry. This description is intuitively more accessible, but it only yields information on the collective anatomy of a group of dendrites, i.e. it is not complete enough to provide a precise ‘blueprint’ of the original data. We are adopting a third, intermediate level of description, which consists of the algorithmic generation of neuronal structures within a certain morphological class based on a set of ‘fundamental’, measured parameters. This description is as intuitive as a classical neuroanatomical analysis (parameters have an intuitive interpretation), and as complete as a Cartesian file (the algorithms generate and display complete neurons). The advantages of the algorithmic description of neuronal structure are immense. If an algorithm can measure the values of a handful of parameters from an experimental database and generate virtual neurons whose anatomy is statistically indistinguishable from that of their real counterparts, a great deal of data compression and amplification can be achieved. Data compression results from the quantitative and complete description of thousands of neurons with a handful of statistical distributions of parameters. Data amplification is possible because, from a set of experimental neurons, many more virtual analogues can be generated. This approach could allow one, in principle, to create and store a neuroanatomical database containing data for an entire human brain in a personal computer. We are using two programs, L–NEURON and ARBORVITAE, to investigate systematically the potential of several different algorithms for the generation of virtual neurons. Using these programs, we have generated anatomically plausible virtual neurons for several morphological classes, including guinea pig cerebellar Purkinje cells and cat spinal cord motor neurons. These virtual neurons are stored in an online electronic archive of dendritic morphology. This process highlights the potential and the limitations of the ‘computational neuroanatomy’ strategy for neuroscience databases.