944 resultados para FUNDAMENTALS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas transaccionales tales como los programas informáticos para la planificación de recursos empresariales (ERP software) se han implementado ampliamente mientras que los sistemas analíticos para la gestión de la cadena de suministro (SCM software) no han tenido el éxito deseado por la industria de tecnología de información (TI). Aunque se documentan beneficios importantes derivados de las implantaciones de SCM software, las empresas industriales son reacias a invertir en este tipo de sistemas. Por una parte esto es debido a la falta de métodos que son capaces de detectar los beneficios por emplear esos sistemas, y por otra parte porque el coste asociado no está identificado, detallado y cuantificado suficientemente. Los esquemas de coordinación basados únicamente en sistemas ERP son alternativas válidas en la práctica industrial siempre que la relación coste-beneficio esta favorable. Por lo tanto, la evaluación de formas organizativas teniendo en cuenta explícitamente el coste debido a procesos administrativos, en particular por ciclos iterativos, es de gran interés para la toma de decisiones en el ámbito de inversiones en TI. Con el fin de cerrar la brecha, el propósito de esta investigación es proporcionar métodos de evaluación que permitan la comparación de diferentes formas de organización y niveles de soporte por sistemas informáticos. La tesis proporciona una amplia introducción, analizando los retos a los que se enfrenta la industria. Concluye con las necesidades de la industria de SCM software: unas herramientas que facilitan la evaluación integral de diferentes propuestas de organización. A continuación, la terminología clave se detalla centrándose en la teoría de la organización, las peculiaridades de inversión en TI y la tipología de software de gestión de la cadena de suministro. La revisión de la literatura clasifica las contribuciones recientes sobre la gestión de la cadena de suministro, tratando ambos conceptos, el diseño de la organización y su soporte por las TI. La clasificación incluye criterios relacionados con la metodología de la investigación y su contenido. Los estudios empíricos en el ámbito de la administración de empresas se centran en tipologías de redes industriales. Nuevos algoritmos de planificación y esquemas de coordinación innovadoras se desarrollan principalmente en el campo de la investigación de operaciones con el fin de proponer nuevas funciones de software. Artículos procedentes del área de la gestión de la producción se centran en el análisis de coste y beneficio de las implantaciones de sistemas. La revisión de la literatura revela que el éxito de las TI para la coordinación de redes industriales depende en gran medida de características de tres dimensiones: la configuración de la red industrial, los esquemas de coordinación y las funcionalidades del software. La literatura disponible está enfocada sobre todo en los beneficios de las implantaciones de SCM software. Sin embargo, la coordinación de la cadena de suministro, basándose en el sistema ERP, sigue siendo la práctica industrial generalizada, pero el coste de coordinación asociado no ha sido abordado por los investigadores. Los fundamentos de diseño organizativo eficiente se explican en detalle en la medida necesaria para la comprensión de la síntesis de las diferentes formas de organización. Se han generado varios esquemas de coordinación variando los siguientes parámetros de diseño: la estructura organizativa, los mecanismos de coordinación y el soporte por TI. Las diferentes propuestas de organización desarrolladas son evaluadas por un método heurístico y otro basado en la simulación por eventos discretos. Para ambos métodos, se tienen en cuenta los principios de la teoría de la organización. La falta de rendimiento empresarial se debe a las dependencias entre actividades que no se gestionan adecuadamente. Dentro del método heurístico, se clasifican las dependencias y se mide su intensidad basándose en factores contextuales. A continuación, se valora la idoneidad de cada elemento de diseño organizativo para cada dependencia específica. Por último, cada forma de organización se evalúa basándose en la contribución de los elementos de diseño tanto al beneficio como al coste. El beneficio de coordinación se refiere a la mejora en el rendimiento logístico - este concepto es el objeto central en la mayoría de modelos de evaluación de la gestión de la cadena de suministro. Por el contrario, el coste de coordinación que se debe incurrir para lograr beneficios no se suele considerar en detalle. Procesos iterativos son costosos si se ejecutan manualmente. Este es el caso cuando SCM software no está implementada y el sistema ERP es el único instrumento de coordinación disponible. El modelo heurístico proporciona un procedimiento simplificado para la clasificación sistemática de las dependencias, la cuantificación de los factores de influencia y la identificación de configuraciones que indican el uso de formas organizativas y de soporte de TI más o menos complejas. La simulación de eventos discretos se aplica en el segundo modelo de evaluación utilizando el paquete de software ‘Plant Simulation’. Con respecto al rendimiento logístico, por un lado se mide el coste de fabricación, de inventario y de transporte y las penalizaciones por pérdida de ventas. Por otro lado, se cuantifica explícitamente el coste de la coordinación teniendo en cuenta los ciclos de coordinación iterativos. El método se aplica a una configuración de cadena de suministro ejemplar considerando diversos parámetros. Los resultados de la simulación confirman que, en la mayoría de los casos, el beneficio aumenta cuando se intensifica la coordinación. Sin embargo, en ciertas situaciones en las que se aplican ciclos de planificación manuales e iterativos el coste de coordinación adicional no siempre conduce a mejor rendimiento logístico. Estos resultados inesperados no se pueden atribuir a ningún parámetro particular. La investigación confirma la gran importancia de nuevas dimensiones hasta ahora ignoradas en la evaluación de propuestas organizativas y herramientas de TI. A través del método heurístico se puede comparar de forma rápida, pero sólo aproximada, la eficiencia de diferentes formas de organización. Por el contrario, el método de simulación es más complejo pero da resultados más detallados, teniendo en cuenta parámetros específicos del contexto del caso concreto y del diseño organizativo. ABSTRACT Transactional systems such as Enterprise Resource Planning (ERP) systems have been implemented widely while analytical software like Supply Chain Management (SCM) add-ons are adopted less by manufacturing companies. Although significant benefits are reported stemming from SCM software implementations, companies are reluctant to invest in such systems. On the one hand this is due to the lack of methods that are able to detect benefits from the use of SCM software and on the other hand associated costs are not identified, detailed and quantified sufficiently. Coordination schemes based only on ERP systems are valid alternatives in industrial practice because significant investment in IT can be avoided. Therefore, the evaluation of these coordination procedures, in particular the cost due to iterations, is of high managerial interest and corresponding methods are comprehensive tools for strategic IT decision making. The purpose of this research is to provide evaluation methods that allow the comparison of different organizational forms and software support levels. The research begins with a comprehensive introduction dealing with the business environment that industrial networks are facing and concludes highlighting the challenges for the supply chain software industry. Afterwards, the central terminology is addressed, focusing on organization theory, IT investment peculiarities and supply chain management software typology. The literature review classifies recent supply chain management research referring to organizational design and its software support. The classification encompasses criteria related to research methodology and content. Empirical studies from management science focus on network types and organizational fit. Novel planning algorithms and innovative coordination schemes are developed mostly in the field of operations research in order to propose new software features. Operations and production management researchers realize cost-benefit analysis of IT software implementations. The literature review reveals that the success of software solutions for network coordination depends strongly on the fit of three dimensions: network configuration, coordination scheme and software functionality. Reviewed literature is mostly centered on the benefits of SCM software implementations. However, ERP system based supply chain coordination is still widespread industrial practice but the associated coordination cost has not been addressed by researchers. Fundamentals of efficient organizational design are explained in detail as far as required for the understanding of the synthesis of different organizational forms. Several coordination schemes have been shaped through the variation of the following design parameters: organizational structuring, coordination mechanisms and software support. The different organizational proposals are evaluated using a heuristic approach and a simulation-based method. For both cases, the principles of organization theory are respected. A lack of performance is due to dependencies between activities which are not managed properly. Therefore, within the heuristic method, dependencies are classified and their intensity is measured based on contextual factors. Afterwards the suitability of each organizational design element for the management of a specific dependency is determined. Finally, each organizational form is evaluated based on the contribution of the sum of design elements to coordination benefit and to coordination cost. Coordination benefit refers to improvement in logistic performance – this is the core concept of most supply chain evaluation models. Unfortunately, coordination cost which must be incurred to achieve benefits is usually not considered in detail. Iterative processes are costly when manually executed. This is the case when SCM software is not implemented and the ERP system is the only available coordination instrument. The heuristic model provides a simplified procedure for the classification of dependencies, quantification of influence factors and systematic search for adequate organizational forms and IT support. Discrete event simulation is applied in the second evaluation model using the software package ‘Plant Simulation’. On the one hand logistic performance is measured by manufacturing, inventory and transportation cost and penalties for lost sales. On the other hand coordination cost is explicitly considered taking into account iterative coordination cycles. The method is applied to an exemplary supply chain configuration considering various parameter settings. The simulation results confirm that, in most cases, benefit increases when coordination is intensified. However, in some situations when manual, iterative planning cycles are applied, additional coordination cost does not always lead to improved logistic performance. These unexpected results cannot be attributed to any particular parameter. The research confirms the great importance of up to now disregarded dimensions when evaluating SCM concepts and IT tools. The heuristic method provides a quick, but only approximate comparison of coordination efficiency for different organizational forms. In contrast, the more complex simulation method delivers detailed results taking into consideration specific parameter settings of network context and organizational design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mecanización de las labores del suelo es la causa, por su consumo energético e impacto directo sobre el medio ambiente, que más afecta a la degradación y pérdida de productividad de los suelos. Entre los factores de disminución de la productividad se deben considerar la compactación, la erosión, el encostramiento y la pérdida de estructura. Todo esto obliga a cuidar el manejo agrícola de los suelos tratando de mejorar las condiciones del suelo y elevar sus rendimientos sin comprometer aspectos económicos, ecológicos y ambientales. En el presente trabajo se adecuan los parámetros constitutivos del modelo de Drucker Prager Extendido (DPE) que definen la fricción y la dilatancia del suelo en la fase de deformación plástica, para minimizar los errores en las predicciones durante la simulación de la respuesta mecánica de un Vertisol mediante el Método de Elementos Finitos. Para lo cual inicialmente se analizaron las bases teóricas que soportan este modelo, se determinaron las propiedades y parámetros físico-mecánicos del suelo requeridos como datos de entrada por el modelo, se determinó la exactitud de este modelo en las predicciones de la respuesta mecánica del suelo, se estimaron mediante el método de aproximación de funciones de Levenberg-Marquardt los parámetros constitutivos que definen la trayectoria de la curva esfuerzo-deformación plástica. Finalmente se comprobó la exactitud de las predicciones a partir de las adecuaciones realizadas al modelo. Los resultados permitieron determinar las propiedades y parámetros del suelo, requeridos como datos de entrada por el modelo, mostrando que su magnitud está en función su estado de humedad y densidad, además se obtuvieron los modelos empíricos de estas relaciones exhibiendo un R2>94%. Se definieron las variables que provocan las inexactitudes del modelo constitutivo (ángulo de fricción y dilatancia), mostrando que las mismas están relacionadas con la etapa de falla y deformación plástica. Finalmente se estimaron los valores óptimos de estos ángulos, disminuyendo los errores en las predicciones del modelo DPE por debajo del 4,35% haciéndelo adecuado para la simulación de la respuesta mecánica del suelo investigado. ABSTRACT The mechanization using farming techniques is one of the main factors that affects the most the soil, causing its degradation and loss of productivity, because of its energy consumption and direct impact on the environment. Compaction, erosion, crusting and loss of structure should be considered among the factors that decrease productivity. All this forces the necessity to take care of the agricultural-land management trying to improve soil conditions and increase yields without compromising economic, ecological and environmental aspects. The present study was aimed to adjust the parameters of the Drucker-Prager Extended Model (DPE), defining friction and dilation of soil in plastic deformation phase, in order to minimize the error of prediction when simulating the mechanical response of a Vertisol through the fine element method. First of all the theoretic fundamentals that withstand the model were analyzed. The properties and physical-mechanical parameters of the soil needed as input data to initialize the model, were established. And the precision of the predictions for the mechanical response of the soil was assessed. Then the constitutive parameters which define the path of the plastic stress-strain curve were estimated through Levenberg-Marquardt method of function approximations. Lastly the accuracy of the predictions from the adequacies made to the model was tested. The results permitted to determine those properties and parameters of the soil, needed in order to initialize the model. It showed that their magnitude is in function of density and humidity. Moreover, the empirical models from these relations were obtained: R2>94%. The variables producing inaccuracies in the constitutive model (angle of repose and dilation) were defined, and there was showed that they are linked with the plastic deformation and rupture point. Finally the optimal values of these angles were established, obtaining thereafter error values for the DPE model under 4, 35%, and making it suitable for the simulation of the mechanical response of the soil under study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cerebro humano es probablemente uno de los sistemas más complejos a los que nos enfrentamos en la actualidad, si bien es también uno de los más fascinantes. Sin embargo, la compresión de cómo el cerebro organiza su actividad para llevar a cabo tareas complejas es un problema plagado de restos y obstáculos. En sus inicios la neuroimagen y la electrofisiología tenían como objetivo la identificación de regiones asociadas a activaciones relacionadas con tareas especificas, o con patrones locales que variaban en el tiempo dada cierta actividad. Sin embargo, actualmente existe un consenso acerca de que la actividad cerebral tiene un carácter temporal multiescala y espacialmente extendido, lo que lleva a considerar el cerebro como una gran red de áreas cerebrales coordinadas, cuyas conexiones funcionales son continuamente creadas y destruidas. Hasta hace poco, el énfasis de los estudios de la actividad cerebral funcional se han centrado en la identidad de los nodos particulares que forman estas redes, y en la caracterización de métricas de conectividad entre ellos: la hipótesis subyacente es que cada nodo, que es una representación mas bien aproximada de una región cerebral dada, ofrece a una única contribución al total de la red. Por tanto, la neuroimagen funcional integra los dos ingredientes básicos de la neuropsicología: la localización de la función cognitiva en módulos cerebrales especializados y el rol de las fibras de conexión en la integración de dichos módulos. Sin embargo, recientemente, la estructura y la función cerebral han empezado a ser investigadas mediante la Ciencia de la Redes, una interpretación mecánico-estadística de una antigua rama de las matemáticas: La teoría de grafos. La Ciencia de las Redes permite dotar a las redes funcionales de una gran cantidad de propiedades cuantitativas (robustez, centralidad, eficiencia, ...), y así enriquecer el conjunto de elementos que describen objetivamente la estructura y la función cerebral a disposición de los neurocientíficos. La conexión entre la Ciencia de las Redes y la Neurociencia ha aportado nuevos puntos de vista en la comprensión de la intrincada anatomía del cerebro, y de cómo las patrones de actividad cerebral se pueden sincronizar para generar las denominadas redes funcionales cerebrales, el principal objeto de estudio de esta Tesis Doctoral. Dentro de este contexto, la complejidad emerge como el puente entre las propiedades topológicas y dinámicas de los sistemas biológicos y, específicamente, en la relación entre la organización y la dinámica de las redes funcionales cerebrales. Esta Tesis Doctoral es, en términos generales, un estudio de cómo la actividad cerebral puede ser entendida como el resultado de una red de un sistema dinámico íntimamente relacionado con los procesos que ocurren en el cerebro. Con este fin, he realizado cinco estudios que tienen en cuenta ambos aspectos de dichas redes funcionales: el topológico y el dinámico. De esta manera, la Tesis está dividida en tres grandes partes: Introducción, Resultados y Discusión. En la primera parte, que comprende los Capítulos 1, 2 y 3, se hace un resumen de los conceptos más importantes de la Ciencia de las Redes relacionados al análisis de imágenes cerebrales. Concretamente, el Capitulo 1 está dedicado a introducir al lector en el mundo de la complejidad, en especial, a la complejidad topológica y dinámica de sistemas acoplados en red. El Capítulo 2 tiene como objetivo desarrollar los fundamentos biológicos, estructurales y funcionales del cerebro, cuando éste es interpretado como una red compleja. En el Capítulo 3, se resumen los objetivos esenciales y tareas que serán desarrolladas a lo largo de la segunda parte de la Tesis. La segunda parte es el núcleo de la Tesis, ya que contiene los resultados obtenidos a lo largo de los últimos cuatro años. Esta parte está dividida en cinco Capítulos, que contienen una versión detallada de las publicaciones llevadas a cabo durante esta Tesis. El Capítulo 4 está relacionado con la topología de las redes funcionales y, específicamente, con la detección y cuantificación de los nodos mas importantes: aquellos denominados “hubs” de la red. En el Capítulo 5 se muestra como las redes funcionales cerebrales pueden ser vistas no como una única red, sino más bien como una red-de-redes donde sus componentes tienen que coexistir en una situación de balance funcional. De esta forma, se investiga cómo los hemisferios cerebrales compiten para adquirir centralidad en la red-de-redes, y cómo esta interacción se mantiene (o no) cuando se introducen fallos deliberadamente en la red funcional. El Capítulo 6 va un paso mas allá al considerar las redes funcionales como sistemas vivos. En este Capítulo se muestra cómo al analizar la evolución de la topología de las redes, en vez de tratarlas como si estas fueran un sistema estático, podemos caracterizar mejor su estructura. Este hecho es especialmente relevante cuando se quiere tratar de encontrar diferencias entre grupos que desempeñan una tarea de memoria, en la que las redes funcionales tienen fuertes fluctuaciones. En el Capítulo 7 defino cómo crear redes parenclíticas a partir de bases de datos de actividad cerebral. Este nuevo tipo de redes, recientemente introducido para estudiar las anormalidades entre grupos de control y grupos anómalos, no ha sido implementado nunca en datos cerebrales y, en este Capítulo explico cómo hacerlo cuando se quiere evaluar la consistencia de la dinámica cerebral. Para concluir esta parte de la Tesis, el Capítulo 8 se centra en la relación entre las propiedades topológicas de los nodos dentro de una red y sus características dinámicas. Como mostraré más adelante, existe una relación entre ellas que revela que la posición de un nodo dentro una red está íntimamente correlacionada con sus propiedades dinámicas. Finalmente, la última parte de esta Tesis Doctoral está compuesta únicamente por el Capítulo 9, el cual contiene las conclusiones y perspectivas futuras que pueden surgir de los trabajos expuestos. En vista de todo lo anterior, espero que esta Tesis aporte una perspectiva complementaria sobre uno de los más extraordinarios sistemas complejos frente a los que nos encontramos: El cerebro humano. ABSTRACT The human brain is probably one of the most complex systems we are facing, thus being a timely and fascinating object of study. Characterizing how the brain organizes its activity to carry out complex tasks is highly non-trivial. While early neuroimaging and electrophysiological studies typically aimed at identifying patches of task-specific activations or local time-varying patterns of activity, there has now been consensus that task-related brain activity has a temporally multiscale, spatially extended character, as networks of coordinated brain areas are continuously formed and destroyed. Up until recently, though, the emphasis of functional brain activity studies has been on the identity of the particular nodes forming these networks, and on the characterization of connectivity metrics between them, the underlying covert hypothesis being that each node, constituting a coarse-grained representation of a given brain region, provides a unique contribution to the whole. Thus, functional neuroimaging initially integrated the two basic ingredients of early neuropsychology: localization of cognitive function into specialized brain modules and the role of connection fibres in the integration of various modules. Lately, brain structure and function have started being investigated using Network Science, a statistical mechanics understanding of an old branch of pure mathematics: graph theory. Network Science allows endowing networks with a great number of quantitative properties, thus vastly enriching the set of objective descriptors of brain structure and function at neuroscientists’ disposal. The link between Network Science and Neuroscience has shed light about how the entangled anatomy of the brain is, and how cortical activations may synchronize to generate the so-called functional brain networks, the principal object under study along this PhD Thesis. Within this context, complexity appears to be the bridge between the topological and dynamical properties of biological systems and, more specifically, the interplay between the organization and dynamics of functional brain networks. This PhD Thesis is, in general terms, a study of how cortical activations can be understood as the output of a network of dynamical systems that are intimately related with the processes occurring in the brain. In order to do that, I performed five studies that encompass both the topological and the dynamical aspects of such functional brain networks. In this way, the Thesis is divided into three major parts: Introduction, Results and Discussion. In the first part, comprising Chapters 1, 2 and 3, I make an overview of the main concepts of Network Science related to the analysis of brain imaging. More specifically, Chapter 1 is devoted to introducing the reader to the world of complexity, specially to the topological and dynamical complexity of networked systems. Chapter 2 aims to develop the biological, topological and functional fundamentals of the brain when it is seen as a complex network. Next, Chapter 3 summarizes the main objectives and tasks that will be developed along the forthcoming Chapters. The second part of the Thesis is, in turn, its core, since it contains the results obtained along these last four years. This part is divided into five Chapters, containing a detailed version of the publications carried out during the Thesis. Chapter 4 is related to the topology of functional networks and, more specifically, to the detection and quantification of the leading nodes of the network: the hubs. In Chapter 5 I will show that functional brain networks can be viewed not as a single network, but as a network-of-networks, where its components have to co-exist in a trade-off situation. In this way, I investigate how the brain hemispheres compete for acquiring the centrality of the network-of-networks and how this interplay is maintained (or not) when failures are introduced in the functional network. Chapter 6 goes one step beyond by considering functional networks as living systems. In this Chapter I show how analyzing the evolution of the network topology instead of treating it as a static system allows to better characterize functional networks. This fact is especially relevant when trying to find differences between groups performing certain memory tasks, where functional networks have strong fluctuations. In Chapter 7 I define how to create parenclitic networks from brain imaging datasets. This new kind of networks, recently introduced to study abnormalities between control and anomalous groups, have not been implemented with brain datasets and I explain in this Chapter how to do it when evaluating the consistency of brain dynamics. To conclude with this part of the Thesis, Chapter 8 is devoted to the interplay between the topological properties of the nodes within a network and their dynamical features. As I will show, there is an interplay between them which reveals that the position of a node in a network is intimately related with its dynamical properties. Finally, the last part of this PhD Thesis is composed only by Chapter 9, which contains the conclusions and future perspectives that may arise from the exposed results. In view of all, I hope that reading this Thesis will give a complementary perspective of one of the most extraordinary complex systems: The human brain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Leyendo distintos artículos en la Revista de Obras Públicas (Jiménez Salas, 1945) uno recuerda a las grandes figuras como Coulomb (1773), Poncelet (1840), Rankine (1856), Culmann (1866), Mohr (1871), Boussinesq (1876) y otros muchos, que construyeron la base de un conocimiento que poco a poco irían facilitando la complicada tarea que suponía la construcción. Pero sus avances eran aproximaciones que presentaban notables diferencias frente al comportamiento de la naturaleza. Esas discrepancias con la naturaleza llegó un momento que se hicieron demasiado patentes. Importantes asientos en la construcción de los modernos edificios, rotura de presas de materiales sueltos y grandes corrimientos de tierras, por ejemplo durante la construcción del canal de Panamá, llevaron a la Sociedad Americana de Ingenieros Civiles (ASCE) a crear un comité que analizase las prácticas de la construcción de la época. Hechos similares se producían en Europa, por ejemplo en desmontes para ferrocarriles, que en el caso de Suecia supusieron unas cuantiosas perdidas materiales y humanas. El ingeniero austriaco-americano Karl Terzaghi (1883) había podido comprobar, en su práctica profesional, la carencia de conocimientos para afrontar muchos de los retos que la naturaleza ofrecía. Inicialmente buscó la respuesta en la geología pero encontró que ésta carecía de la definición necesaria para la práctica de la ingeniería, por lo que se lanzó a una denodada tarea investigadora basada en el método experimental. Comenzó en 1917 con escasos medios, pero pronto llegó a desarrollar algunos ensayos que le permitieron establecer los primeros conceptos de una nueva ciencia, la Mecánica de Suelos. Ciencia que ve la luz en 1925 con la publicación de su libro Erdbaumechanik auf bodenphysikalischer Grundlage. Rápidamente otras figuras empezaron a hacer sus contribuciones científicas y de divulgación, como es el caso del ingeniero austriaco-americano Arthur Casagrande (1902), cuya iniciativa de organizar el primer Congreso Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones proporcionó el altavoz que necesitaba esa nueva ciencia para su difusión. Al mismo tiempo, más figuras internacionales se fueron uniendo a este período de grandes avances e innovadores puntos de vista. Figuras como Alec Skempton (1914) en el Reino Unido, Ralph Peck (1912) en los Estados Unidos o Laurits Bjerrum (1918) en Noruega sobresalieron entre los grandes de la época. Esta tesis investiga las vidas de estos geotécnicos, artífices de múltiples avances científicos de la nueva ciencia denominada Mecánica de Suelos. Todas estas grandes figuras de la geotecnia fueron presidentes, en distintos periodos, de la Sociedad Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones. Se deja constancia de ello en las biografías que han sido elaboradas a partir de fuentes de variada procedencia y de los datos cruzados encontrados sobre estos extraordinarios geotécnicos. Así, las biografías de Terzaghi, Casagrande, Skempton, Peck y Bjerrum contribuyen no solo a su conocimiento individual sino que constituyen conjuntamente un punto de vista privilegiado para la comprensión de los acontecimientos vividos por la Mecánica de Suelos en el segundo tercio del siglo XX, extendiéndose en algunos casos hasta los albores del siglo XXI. Las aportaciones científicas de estos geotécnicos encuentran también su lugar en la parte técnica de esta tesis, en la que sus contribuciones individuales iniciales que configuran los distintos capítulos conservan sus puntos de vista originales, lo que permite tener una visión de los principios de la Mecánica de Suelos desde su mismo origen. On reading several articles in the journal, Revista de Obras Públicas (Jiménez Salas, 1945), one recalls such leading figures as Coulomb (1773), Poncelet (1840), Rankine (1856), Culmann (1866), Mohr (1871) and Boussinesq (1876) among many others, who created the basis of scientific knowledge that would make the complicated task of construction progressively easier. However, their advances were approximations which suffered considerable discrepancies when faced with the behaviour of the forces of nature. There came a time when such discrepancies became all too evident. Substantial soil settlements when constructing modern buildings, embankment dam failures and grave landslides, during the construction of the Panama Canal for example, led the American Society of Civil Engineers (ASCE) to form a committee in order to analyse construction practices of the time. Similar incidents had taken place in Europe, for example with railway slides, which in the case of Sweden, had resulted in heavy losses in both materials and human lives. During the practice of his career, the Austrian-American engineer Karl Terzaghi (1883) had encountered the many challenges posed by the forces of nature and the lack of knowledge at his disposal with which to overcome them. Terzaghi first sought a solution in geology only to discover that this lacked the necessary accuracy for the practice of engineering. He therefore threw himself into tireless research based on the experimental method. He began in 1917 on limited means but soon managed to develop several tests, which would allow him to establish the basic fundamentals of a new science; Soil Mechanics, a science which first saw the light of day on the publication of Terzaghi’s book, Erdbaumechanik auf bodenphysikalischer Grundlage. Other figures were quick to make their own scientific contributions. Such was the case of Austrian-American engineer, Arthur Casagrande (1902), whose initiative to organize the first International Congress of Soil Mechanics and Foundation Engineering provided the springboard that this science needed. At the same time, other international figures were becoming involved in this period of great advances and innovative concepts. Figures including the likes of Alec Skempton (1914) in the United Kingdom, Ralph Peck (1912) in the United States, and Laurits Bjerrum (1918) in Norway stood out amongst the greatest of their time. This thesis investigates the lives of these geotechnical engineers to whom we are indebted for a great many scientific advances in this new science known as Soil Mechanics. Moreover, each of these eminent figures held the presidency of the International Society of Soil Mechanics and Foundation Engineering, record of which can be found in their biographies, drawn from diverse sources, and by crosschecking and referencing all the available information on these extraordinary geotechnical engineers. Thus, the biographies of Terzaghi, Casagrande, Skempton, Peck and Bjerrum not only serve to provide knowledge on the individual, but moreover, as a collective, they present us with an exceptional insight into the important developments which took place in Soil Mechanics in the second third of the 20th century, and indeed, in some cases, up to the dawn of the 21st. The scientific contributions of these geotechnical engineers also find their place in the technical part of this thesis in which the initial individual contributions which make up several chapters retain their original approaches allowing us a view of the principles of Soil Mechanics from its very beginnings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transformación de la energía cinética del mar en una fuente renovable de energía eléctrica podría ser un hecho relevante desde el punto de visto tecnológico en un futuro cercano. En el campo de las energías renovables marinas, las turbinas de corrientes de eje horizontal son posiblemente el dispositivo más adecuado para la obtención de electricidad. Las técnicas de cálculo existentes en la actualidad para obtener las distribuciones de cargas a las que está sometida una pala de una turbina de corrientes son las siguientes: Modelos de disco actuador, Método de líneas sustentadoras y método de elementos finitos. Estas técnicas presentan ciertas dificultades para su implementación y obtención de resultados preliminares, ya que entrañan gran complejidad conceptual y su entendimiento no resulta sencillo ni tampoco elaborar procedimientos de cálculo que se puedan utilizar durante la fase de diseño conceptual o básico de una turbina. En este trabajo, se analizarán los conceptos físicos y matemáticos que intervienen en el funcionamiento de una turbina de corrientes, para confeccionar un método o procedimiento de cálculo que sea relativamente intuitivo y sencillo de manejar. Esta herramienta de cálculo permitirá obtener resultados para el diseño básico, y también puede ser un punto de partida para manejar otras herramientas de cálculo más avanzadas ya que los principios fundamentales son los mismos. En la parte final del trabajo se aplicarán las ecuaciones obtenidas a varios casos reales de turbinas de corrientes. ABSTRACT Transforming the kinetic energy of the sea into renewable useful source electricity could be a relevant technologic development in the near future. In this field, marine horizontal axis turbines (HAT) are possibly, the most important devices. The current calculation techniques used to obtain the acting forces or loads in the marine current horizontal axis rotor blades: Actuator disc models, lifting lines and finite element method, have certain disadvantages which lead difficulties to obtain relatively quick results, in addition, these methods are not easy to understand and mastering, and furthermore, complex computing tools are required to obtain results. In the present work, the common physical and mathematic fundamentals will be studied and analyzed with the aim to create a new easier managing calculating tool. The proposed procedure of this document can be considered as a help towards to calculate preliminary solutions easier, and also a starting point to manage physical ideas which could be used with other calculation tools. And finally, the mathematic fundamentals will be explained and the implementation of the equations in a real case. Nevertheless, due to the real complexity of the problem, the assumed simplifications of this model must be taken into account, in order to know the possible calculating limitations of this procedure and consequently use it correctly.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Históricamente la fractura ha sido considerada siempre como un efecto indeseado entre los materiales, dado que su aparición supone un cese del material en servicio, puesto que un material fracturado carece de importancia desde el punto de vista comercial. Consecuentemente, la Mecánica de Fractura ha experimentado un desarrollo importante en las últimas décadas como no lo hizo en toda la historia de los materiales. El desarrollo de nuevos campos a nivel científico y técnico han estado de la mano con el desarrollo de nuevos materiales que satisfagan las necesidades particulares de cada sector o aplicación. Este requerimiento se ve acentuado cuando se incorpora el aspecto económico, dado que, así como se necesitan materiales con mayor resistencia a la fractura, corrosión etc, también se necesita que su precio en el mercado sea accesible y que permita una aplicación rentable. En los últimos 70 años, desde los requerimientos de nuevos materiales resistentes a la fractura con los buques Liberty hasta el boom petrolero, pasando por las aplicaciones aeroespaciales se han desarrollado diversas teorías que explican el comportamiento de los materiales, en cuando a la tenacidad a la fractura en distintas temperaturas, composiciones químicas, materiales compuestos etc. Uno de los sectores que más ha demandado un desarrollo, por su amplitud en cuanto a requerimientos y consumo global, así como su impacto en la economía mundial, es el sector de gas, petróleo y petroquímica. Muchos de los proyectos que se intentaron desarrollar hasta hace menos de 25 años eran inviables por su elevado coste de ejecución y su bajo retorno de inversión debido a la caída de los precios del petróleo. Con una demanda creciente a nivel mundial y unos precios que apuntan hacia la estabilización o alza moderada, nuevos sistemas de trasporte por tuberías han sido necesarios desarrollar, desde el punto de vista de ingeniería, con el menos coste posible y de un modo seguro. Muchas de estas aplicaciones se vieron incrementadas cuando nuevos requerimientos en cuanto a resistencia a la corrosión fueron necesarios: demanda de materiales que no se corroan, con prestaciones seguras a nivel mecánico y un bajo coste. Esta nueva etapa se conoce como Aleaciones Resistentes a la Corrosión (CRA´s por sus siglas en inglés) en las cuales uno de los factores de diseño seguro recaían indiscutiblemente en la mecánica de fractura. Por estas razones era necesario entender como influía en la resistencia a la fractura las aportaciones que podrían hacerse sobre una superficie metálica. Al realizar el presente estudio se comenzó analizando la influencia que tenían modificaciones en el rango iónico sobre aceros al carbono. Estudios previos sobre láminas de acero ferrítico usadas en reactores de fisión nuclear demostraron que aportes de iones, en este particular el Helio, influían en el comportamiento de la tenacidad a la fractura en función de la temperatura. De este modo, un primer análisis fue hecho sobre la influencia de iones de nitrógeno aportados sobre superficies de acero al carbono y como modificaban su tenacidad a la fractura. Este primer análisis sirvió para comprobar el impacto que tenían pequeñas dosis de iones de nitrógeno en la tenacidad a la fractura. Otro desarrollo con una mayor aplicación industrial fue hecho sobre superficies de acero al carbono con aporte por soldadura de los materiales más usados para evitar la corrosión. El análisis se centró fundamentalmente en la influencia que tenían distintos materiales aportados como el MONEL 400, DUPLEX 928, INCONEL 625 y STAINLESS-STEEL 316 en referencia a características de diseño como la tensión elástica y la tensión a la rotura. Este análisis permitió conocer el impacto de los materiales aportados en los ensayos de tracción en probetas de acero al carbono. Una explicación acerca del comportamiento fue soportada por el análisis macrofractográfico de los perfiles fracturados y las macro deformaciones en la superficie de las probetas. Un posterior desarrollo teórico permitió modelar matemáticamente la fractura de las probetas aportadas por soldadura en la región elástica por medio de la Ley de Hooke, así como la teoría de Plasticidad de Hill para la región de deformación plástica. ABSTRACT Fracture mechanics has been extensively studied in the last 70 years by the constant requirements of new materials with low costs. These requirements have allowed surface modified welded materials in which it is necessary to know the influence of design fundamentals with the material surface welded. Several specimens have been studied for ductile fracture in longitudinal tensile tests for carbon steel surface-modified by weld overlay MONEL 400, DUPLEX 928, INCONEL 625 and STAINLESS-STEEL 316. Similarly of macro photographic analyzes to level the fractured surfaces that explain the behavior curves obtained in Tensile – displacement charts. The contribution of weld overlay material shows a significant impact on the yield and tensile stress of the specimens which was modeled according to Hooke's law for elastic area and Hill´s theory of plasticity to the plastic one.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto estudia los fundamentos y las técnicas de las pruebas de software. Veremos lo importante que pueden llegar a ser las pruebas, mostrando diferentes desastres causados por fallos en el software. También estudiaremos las diferentes herramientas que se utilizan para llevar a cabo la gestión, administración y ejecución de estas pruebas. Finalmente aplicaremos los conceptos estudiados mediante un caso práctico. Crearemos los casos de prueba funcionales basándonos en las especificaciones del protocolo MDB/ICP e instalaremos y aprenderemos cómo crear estos casos con una de las herramientas estudiadas en la parte teórica. ABSTRACT: This project studies the fundamentals and techniques of software testing. We will see how important the evidence showing different disasters caused by bugs in the software can become. We will also study the different tools used to carry out the management, administration and execution of these tests. Finally, we apply the concepts studied by a case study. We create test cases based on functional specifications MDB/ICP protocol We will install and learn how to create such cases by one of the tools studied in the theoretical part.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre 1966 y 1967 un pequeño grupo de jóvenes arquitectos recién titulados en la Facultad de Arquitectura de Florencia escenifican en dos actos programados en las ciudades de Pistoia y Módenala exposición Superarchitettura, con la que sin saberlo inauguran un corto pero intenso periodo de experimentación arquitectónica que convulsionaría Italia durante los 10 años posteriores, dinamitados por multitud de propuestas que darán lugar a la última arquitectura con aspiraciones socio-políticas responsable de un vibrante legado teórico que proclamaba la vuelta a las raíces olvidadas de la profesión y que se mostraba más preocupada por reflexionar sobre sus fundamentos que por perpetuar la práctica de un oficio ahora puesto en crisis. Ambos eventos suponen también el nacimiento simultáneo de Superstudio y Archizoom, dos de los colectivos más influyentes de la arquitectura experimental italiana de estos años, convertidos en protagonistas de un agitado periodo de transición en el que una generación estaba dando paso a la siguiente a través de la sustitución de los principios doctrinarios recibidos de la modernidad por una jugosa incertidumbre desmitificadora ligada a una nueva realidad económica, política y social que marcaría los inicios de la posmodernidad. La experiencia italiana surge aprovechando la efervescencia de un fenómeno que posteriormente algunos críticos etiquetaron como Arquitectura Radical con la intención de unificar el trabajo de un heterogéneo y atomizado grupo de arquitectos fundamentalmente europeos – individualmente comprometidos con el replanteamiento total de la definición y objetivos de la disciplina, al tiempo que participaban en una particular cruzada existencial mediante la que pretendían, si no cambiar el mundo, al menos romper la dinámica estéril de la arquitectura profesional y tecnológica heredada. La presente tesis fomenta la recuperación interesada de este breve momento radical como un ambicioso proyecto de modernización inacabado, pero no solo para analizar las causas de su precipitado final, sino sobre todo para mostrar las razones de su gran éxito internacional, convirtiendo para ello el trabajo de Superstudio, ejemplo paradigmático de la actitud crítica compartida por el resto de operadores contemporáneos, en el catalizador adecuado a partir del cual interpretar y extrapolar su legado con el fin de narrar el cambio trascendental que este episodio supuso para la práctica arquitectónica, alejándola del diseño de edificios y centrándola en la adopción y aplicación de multitud de actividades no tectónicas en un intento por separarse de lo que era percibido como una disciplina corrupta. A lo largo de su corta carrera en común, los seis miembros de Superstudio sustituyeron la construcción convencional por la explotación intensiva de medios alternativos desde el diseño de mobiliario e iluminación y algunos experimentos en torno a la “arquitectura eléctrica”, hasta la expansión mediática de su trabajo a través de revistas, películas, exposiciones y conferencias contribuyendo así a una provocativa destrucción y posterior expansión de los límites dentro de los que hasta ese momento se había mantenido cómodamente instalada la arquitectura. Esta investigación descubre la trascendencia de considerar aquello que ocupó gran parte de la actividad de Superstudio y de sus colegas radicales (muebles, revistas, instalaciones, películas, labor teórica y docente, etc.) como nuevas formas de arquitectura con las que construir un nuevo lenguaje crítico, en un intento por contribuir a renovar y reforzar la relevancia y responsabilidad social de una profesión llamada a expandirse más allá de lo construido para nutrirse e interactuar con todos los ámbitos de nuestro entorno diario. ABSTRACT Between 1966 and 1967 a small group of newly qualified young architects from the Faculty of Architecture of Florence staged in two events planned in the cities of Pistoia and Modena the Superarchitettura exhibition, with which unwittingly inaugurated a short but intense period of architectural experimentation that convulse Italy during the following 10 years, blown up by a multitude of proposals that will result in the latest architecture with socio political aspirations responsible for a vibrant theoretical legacy proclaiming a return to forgotten roots of the profession and that was more concerned with reflect on its fundamentals than perpetuate the practice of a profession now put into crisis. Both events also involve the simultaneous birth of Superstudio and Archizoom, two of the most influential groups of Italian experimental architecture of these years, turned into protagonists of an hectic period of transition in which a generation was giving way to the next through replacing the received doctrinal principles of modernity by a juicy demystifying uncertainty linked to a new reality economic, political and social that would mark the beginning of postmodernism. The Italian experience arises taking advantage of the commotion of a phenomenon that later some critics labeled as Radical Architecture with the intention of unifying the work of a diverse and fragmented group of architects mainly European individually committed to the total rethinking of the definition and objectives of the discipline, while participating in a particular existential crusade with which they sought to, if not change the world, at least break out of the sterile dynamic of professional and technological architecture inherited. This doctoral thesis promotes an interested recovery of in this short radical time as an ambitious modernization project unfinished, but not only to analyze the causes of its precipitous end, but above all to show the reasons for it’s international success, turning the work of Superstudio, a paradigmatic example of the critical attitude shared by the rest of contemporary operators, into the suitable catalyst from which to interpret and extrapolate it’s legacy in order to recount the significant change that this episode marked for architectural practice, moving it away from building and focusing it on the adoption and implementation of many nonLtectonic activities in an attempt to separate from what was perceived as a corrupt discipline. Throughout their short career in common, the six members of Superstudio replaced conventional construction by intensive exploitation of alternative means L from furniture and lighting design and some experiments around the "electric architecture", to the media expansion of their work through magazines, films, exhibitions and lectures thus contributing to a provocative destruction and subsequent expansion of the limits within which architecture had remained ensconced until then. This dissertation finds out the importance of considering what occupied much of the activity of Superstudio and their radical colleagues (furniture, magazines, installations, films, theoretical and educational work, etc.) as new forms of architecture that build a new critical language, in an attempt to help renew and reinforce the relevance and social responsibility of a profession call to expand beyond the built to nourish and interact with all areas of our everyday environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents a new methodology for measurement of the instantaneous average exhaust mass flow rate in reciprocating internal combustion engines to be used to determinate real driving emissions on light duty vehicles, as part of a Portable Emission Measurement System (PEMS). Firstly a flow meter, named MIVECO flow meter, was designed based on a Pitot tube adapted to exhaust gases which are characterized by moisture and particle content, rapid changes in flow rate and chemical composition, pulsating and reverse flow at very low engine speed. Then, an off-line methodology was developed to calculate the instantaneous average flow, considering the ?square root error? phenomenon. The paper includes the theoretical fundamentals, the developed flow meter specifications, the calibration tests, the description of the proposed off-line methodology and the results of the validation test carried out in a chassis dynamometer, where the validity of the mass flow meter and the methodology developed are demonstrated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Biodiesel is currently produced from a catalytic transesterification reaction of various types of edible and non-edible oil with methanol. The use of waste animal tallow instead of edible oils opens a route to recycle this waste. This material has the advantage of lower costs but the problem of high content of free fatty acids, becoming necessary a pre-esterification reaction that increases the cost of the catalytic process. The production of biodiesel using supercritical alcohols is appropriate for materials with high acidity and water content, therefore the use of this process with animal fat is a promising alternative. Ethanol has been used because it can be produced from biomass via fermentation resulting in a complete renewable biodiesel, instead of methanol that derives from fossil feedstocks. Two different processes have been studied: first, the direct transesterification of animal fat using supercritical ethanol and second a two-step process where the first step is a hydrolysis of the animal fat and the second step is the esterification of the resulting fatty acids. The temperature, the molar ratio ethanol:fat and the time have been modified in the different reactions to study the effect in the final conversion and the degradation of the unsaturated fatty acid esters, main inconvenient of these high temperature and pressure processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reflexão proposta neste estudo está centrada na possibilidade de o Novo Paradigma Sistêmico , tal qual o concebe o físico norte-americano Fritjof Capra, fundamentar um modelo epistemológico, possível de integrar em seu âmbito os pontos de vista divergentes no debate sobre o tratamento científico do fenômeno religioso. A história das ciências da religião está marcada pelo dilema epistemológico: explicar ou compreender a religião? As ciências da natureza contrapuseram-se às ciências do espírito, que diferiam das primeiras pelo objeto, pelo método e pela relação entre o sujeito e o objeto. O debate que esteve presente no cenário dos séculos XIX e XX mostrou-nos a impossibilidade de se definir um modelo de ciência que incorporasse, em seu seio, uma integração dos pontos de vista divergentes, em razão dos princípios que norteavam o paradigma cientificista. No entanto, a emergência do paradigma dos sistemas vivos ou da complexidade , liderado pela física, veio conceber o caráter sistêmico da realidade; que o concreto material é energia sob o aspecto subatômico; que sob o aspecto subatômico, a matéria não existe em lugares definidos com certeza, mas apenas mostram tendências a existir. Estas e outras descobertas possibilitaram aos cientistas afirmar a existência de um Novo Paradigma , em que as categorias análise, regularidade e objetividade, que caracterizavam o antigo, são substituídas por: síntese, irregularidade e conduta epistêmica. O paradigma emergente possibilitou a construção de um modelo epistemológico do conhecimento científico, que apontamos como legitimador das condutas fenomenológicas, tal qual as concebem G. van der Leeuw e F. Heiler, ao mesmo tempo em que possibilita a integração de pontos de vista divergentes, no debate entre as vertentes, explicação/compreensão.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reflexão proposta neste estudo está centrada na possibilidade de o Novo Paradigma Sistêmico , tal qual o concebe o físico norte-americano Fritjof Capra, fundamentar um modelo epistemológico, possível de integrar em seu âmbito os pontos de vista divergentes no debate sobre o tratamento científico do fenômeno religioso. A história das ciências da religião está marcada pelo dilema epistemológico: explicar ou compreender a religião? As ciências da natureza contrapuseram-se às ciências do espírito, que diferiam das primeiras pelo objeto, pelo método e pela relação entre o sujeito e o objeto. O debate que esteve presente no cenário dos séculos XIX e XX mostrou-nos a impossibilidade de se definir um modelo de ciência que incorporasse, em seu seio, uma integração dos pontos de vista divergentes, em razão dos princípios que norteavam o paradigma cientificista. No entanto, a emergência do paradigma dos sistemas vivos ou da complexidade , liderado pela física, veio conceber o caráter sistêmico da realidade; que o concreto material é energia sob o aspecto subatômico; que sob o aspecto subatômico, a matéria não existe em lugares definidos com certeza, mas apenas mostram tendências a existir. Estas e outras descobertas possibilitaram aos cientistas afirmar a existência de um Novo Paradigma , em que as categorias análise, regularidade e objetividade, que caracterizavam o antigo, são substituídas por: síntese, irregularidade e conduta epistêmica. O paradigma emergente possibilitou a construção de um modelo epistemológico do conhecimento científico, que apontamos como legitimador das condutas fenomenológicas, tal qual as concebem G. van der Leeuw e F. Heiler, ao mesmo tempo em que possibilita a integração de pontos de vista divergentes, no debate entre as vertentes, explicação/compreensão.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo dessa tese é aprofundar, a partir do discurso pós-colonial, uma crise na perspectiva teológica da libertação. Esta promoveu, na década de 1970, uma reviravolta nos estudos teológicos no terceiro mundo. Para tanto, leremos um conto de Gabriel García Márquez chamado “El ahogado más hermosodel mundo” (1968) analizando e avaliando as estratégias políticas e culturais ali inscritas. Para levar a frente tal avaliação é preciso ampliar o escopo de uma visão que divide o mundo em secular/religioso, ou em ideias/práticas religiosas e não religiosas, para dar passo a uma visão unificada que compreende a mundanalidade, tanto do que é catalogado como ‘religioso’ quanto do que se pretende ‘não religioso’. A teologia/ciências da religião, como discurso científico sobre a economia das trocas que lidam com visões, compreensões e práticas de mundo marcadas pelo reconhecimento do mistério que lhes é inerente, possuem um papel fundamental na compreensão, explicitação, articulação e disponibilização de tais forças culturais. A percepção de existirem elementos no conto que se relacionam com os símbolos sobre Jesus/Cristo nos ofereceu um vetor de análise; entretanto, não nos deixamos limitar pelos grilhões disciplinares que essa simbologia implica. Ao mesmo tempo, esse vínculo, compreendido desde a relação imperial/colonial inerente aos discursos e imagens sobre Jesus-Cristo, embora sem centralizar a análise, não poderia ficar intocado. Partimos para a construção de uma estrutura teórica que explicitasse os valores, gestos, e horizontes mundanos do conto, cristológicos e não-cristológicos, contribuindo assim para uma desestabilização dos quadros tradicionais a partir dos quais se concebem a teologia e as ciências da religião, a obra de García Márquez como literatura, e a geografia imperial/colonial que postula o realismo ficcional de territórios como “América Latina”. Abrimos, assim, um espaço de significação que lê o conto como uma “não-cristologia”, deslocando o aprisionamento disciplinar e classificatório dos elementos envolvidos na análise. O discurso crítico de Edward Said, Homi Bhabha e GayatriSpivak soma-se à prática teórica de teólogas críticas feministas da Ásia, da África e da América Latina para formular o cenário político emancipatório que denominaremos teologia crítica secular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação teve como objetivos contextualizar e analisar as perspectivas da educação salesiana a partir do documento das Linhas Orientadoras da Missão Educativa do Instituto das Filhas de Maria Auxiliadora, tendo em vista aprofundar o contexto histórico e sociocultural da fundação do Instituto das Filhas de Maria Auxiliadora e do desenvolvimento da missão educativa salesiana, com a finalidade de atuar no campo da educação, indicar os fundamentos interdisciplinares que compreendem os fundamentos teóricos para a prática educativa em relação aos aspectos sociológicos, antropológicos, teológicos e pedagógicos, além de algumas experiências práticas da educação salesiana. A pesquisa considera a contextualização da sua prática educativa a partir de diversas contribuições teóricas realizadas em torno da história do Instituto e dos conhecimentos interdisciplinares que integram seus propósitos e seus projetos educativos. Com a perspectiva de analisar as orientações e conteúdos do documento é utilizada a técnica da análise documental que permite interpretar o seu significado, analisar e indicar algumas perspectivas de educação salesiana presentes no documento e que envolvem os seus princípios, propósitos e as suas ações em relação à educação. Por meio da observação participante alguns aspectos práticos das perspectivas da educação salesiana foram demonstrados. Portanto, a investigação permite o mapeamento das perspectivas fundamentais da educação salesiana a partir das Linhas Orientadoras e a possibilidade de aprofundar a significatividade das perspectivas de referência para a prática educativa conforme são indicadas no documento: as dimensões cultural, evangelizadora, social e comunicativa da educação, que são os elementos e princípios fundamentais do Sistema Educativo Salesiano. A concepção de educação salesiana que se constrói a partir de uma visão interdisciplinar, complexa e dimensional, com uma perspectiva de uma estratégia projetual. Os seus princípios integram alguns valores que são considerados como fundamentais para a realização de uma educação integral: a comunidade educativa, o trabalho educativo realizado em equipe, a espiritualidade juvenil, a preventividade e a pedagogia do ambiente. Sobretudo, os núcleos centrais indicados pelo documento orientam as comunidades para a realização de um pensamento projetual, considerando as diversas dimensões da educação, com uma especial abertura para uma contínua projeção das suas intenções e da sua prática educativa. Enfim, encontramos algumas contribuições para a educação a partir do pensamento pedagógico e prático da educação salesiana, especialmente em relação à proposta de pensar a educação de forma complexa e multidimensional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente pesquisa se propõe a analisar o contexto histórico, político, social, econômico e ideológico em que surge a pedagogia crítica de Paulo Freire e posteriormente a Teologia da Libertação, visando encontrar influências deste peculiar contexto na gênese do pensamento freireano e nas concepções dos teólogos Rubem Alves e Gustavo Gutiérrez, que foram os primeiros publicar obras sobre Teologia da Libertação, corrente teológica considerada genuinamente latino-americana. Ainda procura observar em que medida as concepções pedagógicas de Freire podem ter sido acolhidas pelos teólogos Alves e Gutiérrez em suas obras aqui analisadas. Em ambos os pensamentos encontramos a visão de valorização do ser humano e de uma práxis que busca sua libertação de sistemas opressores. Tanto em Paulo Freire como nos fundamentos desta corrente teológica se apresentam princípios humanistas e elementos da tradição cristã. A partir da ferramenta metodológica de análise do materialismo histórico dialético marxista, procura identificar temas comuns que são abordados pelos autores em suas obras surgidas entre as décadas de 1950 a 1970, detendo-se ao estudo de alguns temas subjacentes a esse contexto histórico, a saber: práxis, história, humanismo e libertação.