960 resultados para Modelo de Circuito de Multi-Porta


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hoy en día, con la evolución continua y rápida de las tecnologías de la información y los dispositivos de computación, se recogen y almacenan continuamente grandes volúmenes de datos en distintos dominios y a través de diversas aplicaciones del mundo real. La extracción de conocimiento útil de una cantidad tan enorme de datos no se puede realizar habitualmente de forma manual, y requiere el uso de técnicas adecuadas de aprendizaje automático y de minería de datos. La clasificación es una de las técnicas más importantes que ha sido aplicada con éxito a varias áreas. En general, la clasificación se compone de dos pasos principales: en primer lugar, aprender un modelo de clasificación o clasificador a partir de un conjunto de datos de entrenamiento, y en segundo lugar, clasificar las nuevas instancias de datos utilizando el clasificador aprendido. La clasificación es supervisada cuando todas las etiquetas están presentes en los datos de entrenamiento (es decir, datos completamente etiquetados), semi-supervisada cuando sólo algunas etiquetas son conocidas (es decir, datos parcialmente etiquetados), y no supervisada cuando todas las etiquetas están ausentes en los datos de entrenamiento (es decir, datos no etiquetados). Además, aparte de esta taxonomía, el problema de clasificación se puede categorizar en unidimensional o multidimensional en función del número de variables clase, una o más, respectivamente; o también puede ser categorizado en estacionario o cambiante con el tiempo en función de las características de los datos y de la tasa de cambio subyacente. A lo largo de esta tesis, tratamos el problema de clasificación desde tres perspectivas diferentes, a saber, clasificación supervisada multidimensional estacionaria, clasificación semisupervisada unidimensional cambiante con el tiempo, y clasificación supervisada multidimensional cambiante con el tiempo. Para llevar a cabo esta tarea, hemos usado básicamente los clasificadores Bayesianos como modelos. La primera contribución, dirigiéndose al problema de clasificación supervisada multidimensional estacionaria, se compone de dos nuevos métodos de aprendizaje de clasificadores Bayesianos multidimensionales a partir de datos estacionarios. Los métodos se proponen desde dos puntos de vista diferentes. El primer método, denominado CB-MBC, se basa en una estrategia de envoltura de selección de variables que es voraz y hacia delante, mientras que el segundo, denominado MB-MBC, es una estrategia de filtrado de variables con una aproximación basada en restricciones y en el manto de Markov. Ambos métodos han sido aplicados a dos problemas reales importantes, a saber, la predicción de los inhibidores de la transcriptasa inversa y de la proteasa para el problema de infección por el virus de la inmunodeficiencia humana tipo 1 (HIV-1), y la predicción del European Quality of Life-5 Dimensions (EQ-5D) a partir de los cuestionarios de la enfermedad de Parkinson con 39 ítems (PDQ-39). El estudio experimental incluye comparaciones de CB-MBC y MB-MBC con los métodos del estado del arte de la clasificación multidimensional, así como con métodos comúnmente utilizados para resolver el problema de predicción de la enfermedad de Parkinson, a saber, la regresión logística multinomial, mínimos cuadrados ordinarios, y mínimas desviaciones absolutas censuradas. En ambas aplicaciones, los resultados han sido prometedores con respecto a la precisión de la clasificación, así como en relación al análisis de las estructuras gráficas que identifican interacciones conocidas y novedosas entre las variables. La segunda contribución, referida al problema de clasificación semi-supervisada unidimensional cambiante con el tiempo, consiste en un método nuevo (CPL-DS) para clasificar flujos de datos parcialmente etiquetados. Los flujos de datos difieren de los conjuntos de datos estacionarios en su proceso de generación muy rápido y en su aspecto de cambio de concepto. Es decir, los conceptos aprendidos y/o la distribución subyacente están probablemente cambiando y evolucionando en el tiempo, lo que hace que el modelo de clasificación actual sea obsoleto y deba ser actualizado. CPL-DS utiliza la divergencia de Kullback-Leibler y el método de bootstrapping para cuantificar y detectar tres tipos posibles de cambio: en las predictoras, en la a posteriori de la clase o en ambas. Después, si se detecta cualquier cambio, un nuevo modelo de clasificación se aprende usando el algoritmo EM; si no, el modelo de clasificación actual se mantiene sin modificaciones. CPL-DS es general, ya que puede ser aplicado a varios modelos de clasificación. Usando dos modelos diferentes, el clasificador naive Bayes y la regresión logística, CPL-DS se ha probado con flujos de datos sintéticos y también se ha aplicado al problema real de la detección de código malware, en el cual los nuevos ficheros recibidos deben ser continuamente clasificados en malware o goodware. Los resultados experimentales muestran que nuestro método es efectivo para la detección de diferentes tipos de cambio a partir de los flujos de datos parcialmente etiquetados y también tiene una buena precisión de la clasificación. Finalmente, la tercera contribución, sobre el problema de clasificación supervisada multidimensional cambiante con el tiempo, consiste en dos métodos adaptativos, a saber, Locally Adpative-MB-MBC (LA-MB-MBC) y Globally Adpative-MB-MBC (GA-MB-MBC). Ambos métodos monitorizan el cambio de concepto a lo largo del tiempo utilizando la log-verosimilitud media como métrica y el test de Page-Hinkley. Luego, si se detecta un cambio de concepto, LA-MB-MBC adapta el actual clasificador Bayesiano multidimensional localmente alrededor de cada nodo cambiado, mientras que GA-MB-MBC aprende un nuevo clasificador Bayesiano multidimensional. El estudio experimental realizado usando flujos de datos sintéticos multidimensionales indica los méritos de los métodos adaptativos propuestos. ABSTRACT Nowadays, with the ongoing and rapid evolution of information technology and computing devices, large volumes of data are continuously collected and stored in different domains and through various real-world applications. Extracting useful knowledge from such a huge amount of data usually cannot be performed manually, and requires the use of adequate machine learning and data mining techniques. Classification is one of the most important techniques that has been successfully applied to several areas. Roughly speaking, classification consists of two main steps: first, learn a classification model or classifier from an available training data, and secondly, classify the new incoming unseen data instances using the learned classifier. Classification is supervised when the whole class values are present in the training data (i.e., fully labeled data), semi-supervised when only some class values are known (i.e., partially labeled data), and unsupervised when the whole class values are missing in the training data (i.e., unlabeled data). In addition, besides this taxonomy, the classification problem can be categorized into uni-dimensional or multi-dimensional depending on the number of class variables, one or more, respectively; or can be also categorized into stationary or streaming depending on the characteristics of the data and the rate of change underlying it. Through this thesis, we deal with the classification problem under three different settings, namely, supervised multi-dimensional stationary classification, semi-supervised unidimensional streaming classification, and supervised multi-dimensional streaming classification. To accomplish this task, we basically used Bayesian network classifiers as models. The first contribution, addressing the supervised multi-dimensional stationary classification problem, consists of two new methods for learning multi-dimensional Bayesian network classifiers from stationary data. They are proposed from two different points of view. The first method, named CB-MBC, is based on a wrapper greedy forward selection approach, while the second one, named MB-MBC, is a filter constraint-based approach based on Markov blankets. Both methods are applied to two important real-world problems, namely, the prediction of the human immunodeficiency virus type 1 (HIV-1) reverse transcriptase and protease inhibitors, and the prediction of the European Quality of Life-5 Dimensions (EQ-5D) from 39-item Parkinson’s Disease Questionnaire (PDQ-39). The experimental study includes comparisons of CB-MBC and MB-MBC against state-of-the-art multi-dimensional classification methods, as well as against commonly used methods for solving the Parkinson’s disease prediction problem, namely, multinomial logistic regression, ordinary least squares, and censored least absolute deviations. For both considered case studies, results are promising in terms of classification accuracy as well as regarding the analysis of the learned MBC graphical structures identifying known and novel interactions among variables. The second contribution, addressing the semi-supervised uni-dimensional streaming classification problem, consists of a novel method (CPL-DS) for classifying partially labeled data streams. Data streams differ from the stationary data sets by their highly rapid generation process and their concept-drifting aspect. That is, the learned concepts and/or the underlying distribution are likely changing and evolving over time, which makes the current classification model out-of-date requiring to be updated. CPL-DS uses the Kullback-Leibler divergence and bootstrapping method to quantify and detect three possible kinds of drift: feature, conditional or dual. Then, if any occurs, a new classification model is learned using the expectation-maximization algorithm; otherwise, the current classification model is kept unchanged. CPL-DS is general as it can be applied to several classification models. Using two different models, namely, naive Bayes classifier and logistic regression, CPL-DS is tested with synthetic data streams and applied to the real-world problem of malware detection, where the new received files should be continuously classified into malware or goodware. Experimental results show that our approach is effective for detecting different kinds of drift from partially labeled data streams, as well as having a good classification performance. Finally, the third contribution, addressing the supervised multi-dimensional streaming classification problem, consists of two adaptive methods, namely, Locally Adaptive-MB-MBC (LA-MB-MBC) and Globally Adaptive-MB-MBC (GA-MB-MBC). Both methods monitor the concept drift over time using the average log-likelihood score and the Page-Hinkley test. Then, if a drift is detected, LA-MB-MBC adapts the current multi-dimensional Bayesian network classifier locally around each changed node, whereas GA-MB-MBC learns a new multi-dimensional Bayesian network classifier from scratch. Experimental study carried out using synthetic multi-dimensional data streams shows the merits of both proposed adaptive methods.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesis doctoral se orienta al estudio y análisis de los caminos empedrados antiguos, desde la época prerromana, tanto desde el punto de vista histórico como desde el técnico. La cuantificación de la romanidad de un camino representa un objetivo importante para la mayoría de los estudiosos de la caminería antigua, así como para los arqueólogos, por los datos que ofrece acerca del uso del territorio, los trazados de caminos en la antigüedad y los tráficos asociados. Cuantificar la romanidad de un camino no es tarea sencilla debido a que intervienen multitud de condicionantes que están vivos y son cambiantes como consecuencia del dinamismo inherente al propio camino. En cuanto al aspecto histórico, se realiza una descripción y análisis de la evolución del camino en la Península Ibérica desde sus orígenes hasta mediados del siglo XX, que permite diferenciar la red itineraria según su momento histórico. Así mismo, se describen y analizan: las ruedas y los carros desde sus orígenes, especialmente en la época romana -incluyendo una toma de medidas de distintos tipos de carro, existentes en instituciones y colecciones particulares-; las técnicas de transporte en la antigüedad y las características de la infraestructura viaria de época romana, detallando aspectos generales de sus técnicas de ingeniería y construcción. Desde el punto de vista técnico, el enfoque metodológico ha sido definir un Índice de Romanidad del Camino (IRC) para la datación de vías romanas empedradas, basado en un análisis multicriterio, a partir de los distintos factores que caracterizan su romanidad. Se ha realizado un exhaustivo estudio de campo, con la correspondiente toma de datos en las vías. Se han realizado una serie de ensayos de laboratorio con un prototipo creado exprofeso para simular el desgaste de la piedra producido por el traqueteo del carro al circular por el camino empedrado y dar una hipótesis de datación del camino. Se ha realizado un tratamiento estadístico con la muestra de datos medidos en campo. Se ha definido además el concepto de elasticidad de rodera usando la noción de derivada elástica. En cuanto a los resultados obtenidos: se ha calculado el Índice de Romanidad del Camino (IRC) en una serie de vías empedradas, para cuantificar su romanidad, obteniéndose un resultado coherente con la hipótesis previa sobre la datación de dichas vías; y se ha formulado un modelo exponencial para el número de frecuentaciones de carga que lo relaciona con la elasticidad de rodera y con su esbeltez y que se ha utilizado para relacionar la elasticidad de la rodera con la geología de la roca. Se ha iniciado una línea de investigación sobre la estimación de tráficos históricos en la caminería antigua, considerando que el volumen de tráfico a lo largo del tiempo en un tramo de vía está relacionado con los valores de elasticidad de rodera de dicho tramo a través de la tipología de la roca. En resumen, la presente tesis doctoral proporciona un método para sistematizar el estudio de los caminos antiguos, así como para datarlos y estimar la evolución de sus tráficos. The present Ph. D. Thesis aims to study and to analyze ancient cobbled ways, since pre-roman times, both from the historical and technical points of view. The quantification of the Roman character of a way represents an important target for most of the researchers of ancient ways, as well as for the archaeologists, due to information that it offers about the use of the territory, the tracings of ways in the antiquity and the associate flows. To quantify the Roman character of a way is not a simple task because it involves multitude of influent factors that are alive and variable as a result of the dynamism inherent to the way. As for the historical aspect, a description and analysis of the evolution of the way in the Iberian Peninsula from its origins until the middle of the twentieth century has been done. This allows us to distinguish between elements of the network according to its historical moment. Likewise, a description and analysis is given about: the wheels and the cars since their origins, especially in the Roman time - including a capture of measurements of different types of car, belonging to institutions and to particular collections-; the transport techniques on the antiquity and the characteristics of the road infrastructure of Roman epoch, detailing general technical engineering and constructive aspects. From the technical point of view, the methodological approach has been to define an Index of the Roman Character of the Way (IRC) for the dating of cobbled Roman routes, based on a multi-criterion analysis, involving different factors typical of Roman ways. An exhaustive field study has been realized, with the corresponding capture of information in the routes. A series of laboratory essays has been realized with an ad hoc prototype created to simulate the wear of the stone produced by cars circulating along the cobbled way, and to give a dating hypothesis of the way. A statistical treatment has been realized with the sample of information measured in field. There has been defined also the concept of elasticity of rolling trace using the notion of elastic derivative. As for the obtained results: there has been calculated the Index of Roman Character of the Way (IRC) in a series of cobbled routes, to quantify its Roman character, obtaining a coherent result with the previous dating hypothesis of the above mentioned routes; and an exponential model has been formulated for the number of frequent attendances of load that relates this number to the elasticity of rolling trace and to its slenderness and that has been used to relate the elasticity of the rolling trace to the geology of the rock. An investigation line has been opened about the estimation of historical flows in ancient ways, considering that the traffic volume over the course of time in a route stretch is related to the values of elasticity of rolling trace of the above mentioned stretch by means of the typology of the rock. In short, the present Ph. D. Thesis provides a method to systematize the study of ancient ways, as well as to date them and to estimate the evolution of their flows.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El sector de la edificación es uno de los principales sectores económicos en España y, además, es un componente básico de la actividad económica y social, debido a su importante papel como generador de empleo, proveedor de bienes e incentivador del crecimiento. Curiosamente, es uno de los sectores con menos regulación y organización y que, además, está formado mayoritariamente por empresas de pequeña y mediana dimensión (pymes) que, por su menor capacidad, a menudo, se quedan detrás de las grandes empresas en términos de adopción de soluciones innovadoras. La complejidad en la gestión de toda la información relacionada con un proyecto de edificación ha puesto de manifiesto claras ineficiencias que se traducen en un gasto innecesario bastante representativo. La información y los conocimientos aprendidos rara vez son transmitidos de una fase a otra dentro del proyecto de edificación y, mucho menos, reutilizados en otros proyectos similares. De este modo, no sólo se produce un gasto innecesario, sino que incluso podemos encontrar información contradictoria y obsoleta y, por tanto, inútil para la toma de decisiones. A lo largo de los años, esta situación ha sido motivada por la propia configuración del sector, poniendo de manifiesto la necesidad de una solución que pudiera solventar este reto de gestión interorganizacional. Así, la cooperación interorganizacional se ha convertido en un factor clave para mejorar la competitividad de las organizaciones, típicamente pymes, que componen el sector de la edificación. La información es la piedra angular de cualquier proceso de negocio. Durante la última década, una amplia gama de industrias han experimentado importantes mejoras de productividad con la aplicación eficiente de las TIC, asociadas, principalmente, a incrementos en la velocidad de proceso de información y una mayor coherencia en la generación de datos, accesibilidad e intercambio de información. La aplicación eficaz de las TIC en el sector de la edificación requiere una combinación de aspectos estratégicos y tácticos, puesto que no sólo se trata de utilizar soluciones puntuales importadas de otros sectores para su aplicación en diferentes áreas, sino que se buscaría que la información multi-agente estuviera integrada y sea coherente para los proyectos de edificación. El sector de la construcción ha experimentado un descenso significativo en los últimos años en España y en Europa como resultado de la crisis financiera que comenzó en 2007. Esta disminución está acompañada de una baja penetración de las TIC en la interorganizacionales orientadas a los procesos de negocio. El descenso del mercado ha provocado una desaceleración en el sector de la construcción, donde sólo las pymes flexibles han sido capaces de mantener el ritmo a pesar de la especialización y la innovación en los servicios adaptados a las nuevas demandas del mercado. La industria de la edificación está muy fragmentada en comparación con otras industrias manufactureras. El alto grado de esta fragmentación está íntimamente relacionado con un impacto significativo en la productividad y el rendimiento. Muchos estudios de investigación han desarrollado y propuesto una serie de modelos de procesos integrados. Por desgracia, en la actualidad todavía no se está en condiciones para la formalización de cómo debe ser la comunicación y el intercambio de información durante el proceso de construcción. El paso del proceso secuencial tradicional a los procesos de interdependencia recíproca sin lugar a duda son una gran demanda asociada a la comunicación y el flujo de información en un proyecto de edificación. Recientemente se está poniendo mucho énfasis en los servicios para el hogar como un primer paso hacia esta mejora en innovación ya que la industria de los servicios digitales interactivos tiene un alto potencial para generar innovación y la ventaja estratégica para las empresas existentes. La multiplicidad de servicios para el hogar digital (HD) y los proveedores de servicios demandan, cada vez más, la aparición de una plataforma capaz de coordinar a todos los agentes del sector con el usuario final. En consecuencia, las estructuras organizacionales tienden a descentralizarse en busca de esa coordinación y, como respuesta a esta demanda, se plantea, también en este ámbito, el concepto de cooperación interorganizacional. Por lo tanto, ambos procesos de negocio -el asociado a la construcción y el asociado a la provisión de servicios del hogar digital, también considerado como la propia gestión de ese hogar digital o edificio, inteligente o no- deben de ser vistos en su conjunto mediante una plataforma tecnológica que les dé soporte y que pueda garantizar la agregación e integración de los diversos procesos, relacionados con la construcción y gestión, que se suceden durante el ciclo de vida de un edificio. Sobre esta idea y atendiendo a la evolución permanente de los sistemas de información en un entorno de interrelación y cooperación daría lugar a una aplicación del concepto de sistema de información interorganizacional (SIIO). El SIIO proporciona a las organizaciones la capacidad para mejorar los vínculos entre los socios comerciales a lo largo de la cadena de suministro, por lo que su importancia ha sido reconocida por organizaciones de diversos sectores. Sin embargo, la adopción de un SIIO en diferentes ámbitos ha demostrado ser complicada y con una alta dependencia de las características particulares de cada sector, siendo, en este momento, una línea de investigación abierta. Para contribuir a esta línea de investigación, este trabajo pretende recoger, partiendo de una revisión de la literatura relacionada, un enfoque en un modelo de adopción de un SIIO para el objeto concreto de esta investigación. El diseño de un SIIO está basado principalmente, en la identificación de las necesidades de información de cada uno de sus agentes participantes, de ahí la importancia en concretar un modelo de SIIO en el ámbito de este trabajo. Esta tesis doctoral presenta el modelo de plataforma virtual de la asociación entre diferentes agentes del sector de la edificación, el marco de las relaciones, los flujos de información correspondientes a diferentes procesos y la metodología que subyace tras el propio modelo, todo ello, con el objeto de contribuir a un modelo unificado que dé soporte tanto a los procesos relacionados con la construcción como con la gestión de servicios en el hogar digital y permitiendo cubrir los requisitos importantes que caracterizan este tipo de proyectos: flexibilidad, escalabilidad y robustez. El SIIO se ha convertido en una fuente de innovación y una herramienta estratégica que permite a las pymes obtener ventajas competitivas. Debido a la complejidad inherente de la adopción de un SIIO, esta investigación extiende el modelo teórico de adopción de un SIIO de Kurnia y Johnston (2000) con un modelo empírico para la caracterización de un SIIO. El modelo resultante tiene como objetivo fomentar la innovación de servicios en el sector mediante la identificación de los factores que influyen en la adopción de un SIIO por las pymes en el sector de la edificación como fuente de ventaja competitiva y de colaboración. Por tanto, esta tesis doctoral, proyectada sobre una investigación empírica, proporciona un enfoque para caracterizar un modelo de SIIO que permita dar soporte a la gestión integrada de los procesos de construcción y gestión de servicios para el hogar digital. La validez del modelo de SIIO propuesto, como fuente y soporte de ventajas competitivas, está íntimamente relacionada con la necesidad de intercambio de información rápido y fiable que demandan los agentes del sector para mejorar la gestión de su interrelación y cooperación con el fin de abordar proyectos más complejos en el sector de la edificación, relacionados con la implantación del hogar digital, y contribuyendo, así a favorecer el desarrollo de la sociedad de la información en el segmento residencial. ABSTRACT The building industry is the largest industry in the world. Land purchase, building design, construction, furnishing, building equipment, operations maintenance and the disposition of real estate have an unquestionable prominence not only at economic but also at social level. In Spain, the building sector is one of the main drivers of economy and also a basic component of economic activity and its role in generating employment, supply of goods or incentive for growth is crucial in the evolution of the economy. Surprisingly, it is one of the sectors with less regulation and organization. Another consistent problem is that, in this sector, the majority of companies are small and medium (SMEs), and often behind large firms in terms of their adoption of innovative solutions. The complexity of managing all information related to this industry has lead to a waste of money and time. The information and knowledge gathered is frequently stored in multiple locations, involving the work of thousands of people, and is rarely transferred on to the next phase. This approach is inconsistent and makes that incorrect information is used for decisions. This situation needs a viable solution for interorganizational information management. So, interorganizational co-operation has become a key factor for organization competitiveness within the building sector. Information is the cornerstone of any business process. Therefore, information and communication technologies (ICT) offer a means to change the way business is conducted. During the last decade, significant productivity improvements were experienced by a wide range of industries with ICT implementation. ICT has provided great advantages in speed of operation, consistency of data generation, accessibility and exchange of information. The wasted money resulting from reentering information, errors and omissions caused through poor decisions and actions, and the delays caused while waiting for information, represent a significant percentage of the global benefits. The effective application of ICT in building construction sector requires a combination of strategic and tactical developments. The building sector has experienced a significant decline in recent years in Spain and in Europe as a result of the financial crisis that began in 2007. This drop goes hand in hand with a low penetration of ICT in inter-organizational-oriented business processes. The market decrease has caused a slowdown in the building sector, where only flexible SMEs have been able to keep the pace though specialization and innovation in services adapted to new market demands. The building industry is highly fragmented compared with other manufacturing industries. This fragmentation has a significant negative impact on productivity and performance. Many research studies have developed and proposed a number of integrated process models. Unfortunately, these studies do not suggest how communication and information exchange within the construction process can be achieved, without duplication or lost in quality. A change from the traditional sequential process to reciprocal interdependency processes would increase the demand on communication and information flow over the edification project. Focusing on home services, the digital interactive service industry has the potential to generate innovation and strategic advantage for existing business. Multiplicity of broadband home services (BHS) and suppliers suggest the need for a figure able to coordinate all the agents in sector with the final user. Consequently, organizational structures tend to be decentralized. Responding to this fact, the concept of interorganizational co-operation also is raising in the residential market. Therefore, both of these business processes, building and home service supply, must be complemented with a technological platform that supports these processes and guarantees the aggregation and integration of the several services over building lifecycle. In this context of a technological platform and the permanent evolution of information systems is where the relevance of the concept of inter-organizational information system (IOIS) emerges. IOIS improves linkages between trading partners along the supply chain. However, IOIS adoption has proved to be difficult and not fully accomplished yet. This research reviews the literature in order to focus a model of IOIS adoption. This PhD Thesis presents a model of virtual association, a framework of the relationships, an identification of the information requirements and the corresponding information flows, using the multi-agent system approach. IOIS has become a source of innovation and a strategic tool for SMEs to obtain competitive advantage. Because of the inherent complexity of IOIS adoption, this research extends Kurnia and Johnston’s (2000) theoretical model of IOIS adoption with an empirical model of IOIS characterization. The resultant model aims to foster further service innovation in the sector by identifying the factors influencing IOIS adoption by the SMEs in the building sector as a source of competitive and collaborative advantage. Therefore, this PhD Thesis characterizes an IOIS model to support integrated management of building processes and home services. IOIS validity, as source and holder of competitive advantages, is related to the need for reliable information interchanges to improve interrelationship management. The final goal is to favor tracking of more complex projects in building sector and to contribute to consolidation of the information society through the provision of broadband home services and home automation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se muestra el proceso de diseño y medida de una red de división/combinación de potencia de gran ancho de banda (5 a 10 GHz) basado en divisores de potencia Wilkinson asimétricos y multi-sección. Se comparan las ventajas e inconvenientes de las distintas formas de conectar los divisores de potencia, proponiendo un diseño general que depende de la tecnología de fabricación que se disponga. Se detalla el proceso de diseño de los divisores de potencia del circuito, así como las estrategias a seguir para plasmar los parámetros del circuito en un modelo de simulación,mostrando los problemas que surgen y las soluciones que se tomaron. Finalmente se muestran las medidas el circuito fabricado, comparando su respuesta con la de la simulación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resulta interesante comprender como microorganismos sencillos como la bacteria Escherichia coli poseen mecanismos no tan simples para responder al entorno en el que está gestionada por complicadas redes de regulación formadas por genes y proteínas, donde cada elemento de la red genética debe tomar parte en armonía, en el momento justo y la cantidad adecuada para dar lugar a la respuesta celular apropiada. La biología sintética es un nuevo área de la biología y la tecnología que fusiona la biolog ía molecular, la ingeniería genética y las herramientas computacionales, para crear sistemas biológicos con funcionalidades novedosas. Los sistemas creados sintéticamente son ya una realidad, y cada vez se acumulan más trabajos alrededor del mundo que muestran su factibilidad. En este campo no solo se hacen pequeñas modificaciones en la información genética, sino que también se diseñan, manipulan e introducen circuitos genéticos a los organismos. Actualmente, se hace un gran esfuerzo para construir circuitos genéticos formados por numerosos genes y caracterizar la interacción de los mismos con otras moléculas, su regulaci ón, expresión y funcionalidad en diferentes organismos. La mayoría de los proyectos de biología sintética que se han desarrollado hasta ahora, se basan en el conocimiento actual del funcionamiento de los organismos vivos. Sin embargo, la información es numerosa y creciente, por lo que se requiere de herramientas computacionales y matem áticas para integrar y hacer manejable esta gran cantidad de información. El simulador de colonias bacterianas GRO posee la capacidad de representar las dinámicas más simples del comportamiento celular, tales como crecimiento, división y comunicación intercelular mediante conjugación, pero carece de la capacidad de simular el comportamiento de la colonia en presencia de un circuito genético. Para ello, se ha creado un nuevo módulo de regulación genética que maneja las interaciones entre genes y proteínas de cada célula ejecutando respuestas celulares específicas. Dado que en la mayoría de los experimentos intervienen colonias del orden de 105 individuos, es necesario un módulo de regulación genética simplificado que permita representar de la forma más precisa posible este proceso en colonias de tales magnitudes. El módulo genético integrado en GRO se basa en una red booleana, en la que un gen puede transitar entre dos estados, on (expresado) o off (reprimido), y cuya transición viene dada por una serie de reglas lógicas.---ABSTRACT---It is interesting to understand how simple organisms such as Escherichia coli do not have simple mechanisms to respond to the environment in which they find themselves. This response is managed by complicated regulatory networks formed by genes and proteins, where each element of the genetic network should take part in harmony, at the right time and with the right amount to give rise to the appropriate cellular response. Synthetic biology is a new area of biology and technology that combines molecular biology, genetic engineering and computational tools to create biological systems with novel features. The synthetically created systems are already a reality, and increasingly accumulate work around the world showing their feasibility. In this field not only minor changes are made in the genetic information but also genetic circuits designed, manipulated and introduced into the organisms. Currently, it takes great effort to build genetic circuits formed by numerous genes and characterize their interaction with other molecules, their regulation, their expression and their function in different organisms. Most synthetic biology projects that have been developed so far are based on the current knowledge of the functioning of living organisms. However, there is a lot of information and it keeps accumulating, so it requires computational and mathematical tools to integrate and manage this wealth of information. The bacterial colonies simulator, GRO, has the ability to represent the simplest dynamics of cell behavior, such as growth, division and intercellular communication by conjugation, but lacks the ability to simulate the behavior of the colony in the presence of a genetic circuit. To this end, a new genetic regulation module that handles interactions between genes and proteins for each cell running specific cellular responses has been created. Since most experiments involve colonies of about 105 individuals, a simplified genetic module which represent cell dynamics as accurately and simply as possible is needed. The integrated genetic GRO module is based on a Boolean network, in which a gene can be in either of two states, on (expressed) or off (repressed), and whose transition is given by a set of logical rules.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La familia de algoritmos de Boosting son un tipo de técnicas de clasificación y regresión que han demostrado ser muy eficaces en problemas de Visión Computacional. Tal es el caso de los problemas de detección, de seguimiento o bien de reconocimiento de caras, personas, objetos deformables y acciones. El primer y más popular algoritmo de Boosting, AdaBoost, fue concebido para problemas binarios. Desde entonces, muchas han sido las propuestas que han aparecido con objeto de trasladarlo a otros dominios más generales: multiclase, multilabel, con costes, etc. Nuestro interés se centra en extender AdaBoost al terreno de la clasificación multiclase, considerándolo como un primer paso para posteriores ampliaciones. En la presente tesis proponemos dos algoritmos de Boosting para problemas multiclase basados en nuevas derivaciones del concepto margen. El primero de ellos, PIBoost, está concebido para abordar el problema descomponiéndolo en subproblemas binarios. Por un lado, usamos una codificación vectorial para representar etiquetas y, por otro, utilizamos la función de pérdida exponencial multiclase para evaluar las respuestas. Esta codificación produce un conjunto de valores margen que conllevan un rango de penalizaciones en caso de fallo y recompensas en caso de acierto. La optimización iterativa del modelo genera un proceso de Boosting asimétrico cuyos costes dependen del número de etiquetas separadas por cada clasificador débil. De este modo nuestro algoritmo de Boosting tiene en cuenta el desbalanceo debido a las clases a la hora de construir el clasificador. El resultado es un método bien fundamentado que extiende de manera canónica al AdaBoost original. El segundo algoritmo propuesto, BAdaCost, está concebido para problemas multiclase dotados de una matriz de costes. Motivados por los escasos trabajos dedicados a generalizar AdaBoost al terreno multiclase con costes, hemos propuesto un nuevo concepto de margen que, a su vez, permite derivar una función de pérdida adecuada para evaluar costes. Consideramos nuestro algoritmo como la extensión más canónica de AdaBoost para este tipo de problemas, ya que generaliza a los algoritmos SAMME, Cost-Sensitive AdaBoost y PIBoost. Por otro lado, sugerimos un simple procedimiento para calcular matrices de coste adecuadas para mejorar el rendimiento de Boosting a la hora de abordar problemas estándar y problemas con datos desbalanceados. Una serie de experimentos nos sirven para demostrar la efectividad de ambos métodos frente a otros conocidos algoritmos de Boosting multiclase en sus respectivas áreas. En dichos experimentos se usan bases de datos de referencia en el área de Machine Learning, en primer lugar para minimizar errores y en segundo lugar para minimizar costes. Además, hemos podido aplicar BAdaCost con éxito a un proceso de segmentación, un caso particular de problema con datos desbalanceados. Concluimos justificando el horizonte de futuro que encierra el marco de trabajo que presentamos, tanto por su aplicabilidad como por su flexibilidad teórica. Abstract The family of Boosting algorithms represents a type of classification and regression approach that has shown to be very effective in Computer Vision problems. Such is the case of detection, tracking and recognition of faces, people, deformable objects and actions. The first and most popular algorithm, AdaBoost, was introduced in the context of binary classification. Since then, many works have been proposed to extend it to the more general multi-class, multi-label, costsensitive, etc... domains. Our interest is centered in extending AdaBoost to two problems in the multi-class field, considering it a first step for upcoming generalizations. In this dissertation we propose two Boosting algorithms for multi-class classification based on new generalizations of the concept of margin. The first of them, PIBoost, is conceived to tackle the multi-class problem by solving many binary sub-problems. We use a vectorial codification to represent class labels and a multi-class exponential loss function to evaluate classifier responses. This representation produces a set of margin values that provide a range of penalties for failures and rewards for successes. The stagewise optimization of this model introduces an asymmetric Boosting procedure whose costs depend on the number of classes separated by each weak-learner. In this way the Boosting procedure takes into account class imbalances when building the ensemble. The resulting algorithm is a well grounded method that canonically extends the original AdaBoost. The second algorithm proposed, BAdaCost, is conceived for multi-class problems endowed with a cost matrix. Motivated by the few cost-sensitive extensions of AdaBoost to the multi-class field, we propose a new margin that, in turn, yields a new loss function appropriate for evaluating costs. Since BAdaCost generalizes SAMME, Cost-Sensitive AdaBoost and PIBoost algorithms, we consider our algorithm as a canonical extension of AdaBoost to this kind of problems. We additionally suggest a simple procedure to compute cost matrices that improve the performance of Boosting in standard and unbalanced problems. A set of experiments is carried out to demonstrate the effectiveness of both methods against other relevant Boosting algorithms in their respective areas. In the experiments we resort to benchmark data sets used in the Machine Learning community, firstly for minimizing classification errors and secondly for minimizing costs. In addition, we successfully applied BAdaCost to a segmentation task, a particular problem in presence of imbalanced data. We conclude the thesis justifying the horizon of future improvements encompassed in our framework, due to its applicability and theoretical flexibility.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Vivimos una época en la que el mundo se transforma aceleradamente. La globalización está siguiendo un curso imparable, la población mundial así como la población urbana siguen creciendo, y en los países emergentes los ingresos promedios aumentan, resultando en un cambio también acelerado de las dietas y hábitos alimentarios. En conjunto esos factores están causando un aumento fundamental de la demanda de alimentos. Junto con la apertura de los mercados agrícolas, estos procesos han provocado un crecimiento del comercio internacional de alimentos durante la última década. Dado que muchos países de América Latina están dotados de abundancia de recursos naturales, estas tendencias han producido un crecimiento rápido de las exportaciones de bienes primarios desde América Latina al resto del mundo. En sólo 30 años la participación en el mercado agrícola de América Latina casi se ha duplicado, desde 10% en 1980 a 18% en 2010. Este aumento del comercio agrícola ha dado lugar a un debate sobre una serie de cuestiones cruciales relacionadas con los impactos del comercio en la seguridad alimentaria mundial, en el medio ambiente o en la reducción de la pobreza rural en países en desarrollo. Esta tesis aplica un marco integrado para analizar varios impactos relacionados con la transformación de los mercados agrícolas y los mercados rurales debidos a la globalización y, en particular, al progresivo aumento del comercio internacional. En concreto, la tesis aborda los siguientes temas: En primer lugar, la producción mundial de alimentos tendrá que aumentar considerablemente para poder satisfacer la demanda de una población mundial de 9000 millones personas en 2050, lo cual plantea grandes desafíos sobre los sistemas de la producción de alimentos. Alcanzar este logro, sin comprometer la integridad del medio ambiente en regiones exportadoras, es un reto aún mayor. En este contexto, la tesis analiza los efectos de la liberalización del comercio mundial, considerando distintas tecnologías de producción agraria, sobre unos indicadores de seguridad alimentaria en diferentes regiones del mundo y sobre distintos indicadores ambientales, teniendo en cuenta escalas diferentes en América Latina y el Caribe. La tesis utiliza el modelo “International Model for Policy Analysis of Agricultural Commodities and Trade (IMPACT)” – un modelo dinámico de equilibrio parcial del sector agrícola a escala global – para modelar la apertura de los mercados agrícolas así como diferentes escenarios de la producción hasta el año 2050. Los resultados del modelo están vinculados a modelos biofísicos para poder evaluar los cambios en la huella hídrica y la calidad del agua, así como para cuantificar los impactos del cambio en el uso del suelo sobre la biodiversidad y los stocks de carbono en 2050. Los resultados indican que la apertura de los mercados agrícolas es muy importante para mejorar la seguridad alimentaria a nivel mundial, sin embargo, produce también presiones ambientales indeseables en algunas regiones de América Latina. Contrastando dos escenarios que consideran distintas modos de producción, la expansión de la tierra agrícola frente a un escenario de la producción más intensiva, se demuestra que las mejoras de productividad son generalmente superiores a la expansión de las tierras agrícolas, desde un punto de vista económico e ambiental. En cambio, los escenarios de intensificación sostenible no sólo hacen posible una mayor producción de alimentos, sino que también generan menos impactos medioambientales que los otros escenarios futuros en todas sus dimensiones: biodiversidad, carbono, emisiones de nitratos y uso del agua. El análisis muestra que hay un “trade-off” entre el objetivo de alcanzar la sostenibilidad ambiental y el objetivo de la seguridad alimentaria, independiente del manejo agrícola en el futuro. En segundo lugar, a la luz de la reciente crisis de los precios de alimentos en los años 2007/08, la tesis analiza los impactos de la apertura de los mercados agrícolas en la transmisión de precios de los alimentos en seis países de América Latina: Argentina, Brasil, Chile, Colombia, México y el Perú. Para identificar las posibles relaciones de cointegración entre los índices de precios al consumidor de alimentos y los índices de precios de agrarios internacionales, sujetos a diferentes grados de apertura de mercados agrícolas en los seis países de América Latina, se utiliza un modelo simple de corrección de error (single equation error correction). Los resultados indican que la integración global de los mercados agrícolas ha dado lugar a diferentes tasas de transmisión de precios en los países investigados. Sobre todo en el corto plazo, las tasas de transmisión dependen del grado de apertura comercial, mientras que en el largo plazo las tasas de transmisión son elevadas, pero en gran medida independientes del régimen de comercio. Por lo tanto, durante un período de shocks de precios mundiales una mayor apertura del comercio trae consigo más inestabilidad de los precios domésticos a corto plazo y la resultante persistencia en el largo plazo. Sin embargo, estos resultados no verifican necesariamente la utilidad de las políticas comerciales, aplicadas frecuentemente por los gobiernos para amortiguar los shocks de precios. Primero, porque existe un riesgo considerable de volatilidad de los precios debido a cambios bruscos de la oferta nacional si se promueve la autosuficiencia en el país; y segundo, la política de proteccionismo asume el riesgo de excluir el país de participar en las cadenas de suministro de alto valor del sector agrícola, y por lo tanto esa política podría obstaculizar el desarrollo económico. Sin embargo, es indispensable establecer políticas efectivas para reducir la vulnerabilidad de los hogares a los aumentos repentinos de precios de alimentos, lo cual requiere una planificación gubernamental precisa con el presupuesto requerido disponible. En tercer lugar, la globalización afecta a la estructura de una economía y, por medios distintos, la distribución de los ingreso en un país. Perú sirve como ejemplo para investigar más profundamente las cuestiones relacionadas con los cambios en la distribución de los ingresos en zonas rurales. Perú, que es un país que está cada vez más integrado en los mercados mundiales, consiguió importantes descensos en la pobreza extrema en sus zonas rurales, pero a la vez adolece de alta incidencia de pobreza moderada y de desigualdad de los ingresos en zonas rural al menos durante el periodo comprendido entre 2004 y 2012. Esta parte de la tesis tiene como objetivo identificar las fuerzas impulsoras detrás de estas dinámicas en el Perú mediante el uso de un modelo de microsimulación basado en modelos de generación de ingresos aplicado a nivel los hogares rurales. Los resultados indican que la fuerza principal detrás de la reducción de la pobreza ha sido el crecimiento económico general de la economía, debido a las condiciones macroeconómicas favorables durante el periodo de estudio. Estos efectos de crecimiento beneficiaron a casi todos los sectores rurales, y dieron lugar a la disminución de la pobreza rural extrema, especialmente entre los agricultores de papas y de maíz. En parte, estos agricultores probablemente se beneficiaron de la apertura de los mercados agrícolas, que es lo que podría haber provocado un aumento de los precios al productor en tiempos de altos precios mundiales de los alimentos. Sin embargo, los resultados también sugieren que para una gran parte de la población más pobre existían barreras de entrada a la hora de poder participar en el empleo asalariado fuera de la agricultura o en la producción de cultivos de alto valor. Esto podría explicarse por la falta de acceso a unos activos importantes: por ejemplo, el nivel de educación de los pobres era apenas mejor en 2012 que en 2004; y también las dotaciones de tierra y de mano de obra, sobre todo de los productores pobres de maíz y patata, disminuyeron entre 2004 y 2012. Esto lleva a la conclusión de que aún hay margen para aplicar políticas para facilitar el acceso a estos activos, que podría contribuir a la erradicación de la pobreza rural. La tesis concluye que el comercio agrícola puede ser un importante medio para abastecer una población mundial creciente y más rica con una cantidad suficiente de calorías. Para evitar adversos efectos ambientales e impactos negativos para los consumidores y de los productores pobres, el enfoque debe centrarse en las mejoras de la productividad agrícola, teniendo en cuenta los límites ambientales y ser socialmente inclusivo. En este sentido, será indispensable seguir desarrollando soluciones tecnológicas que garanticen prácticas de producción agrícola minimizando el uso de recursos naturales. Además, para los pequeños pobres agricultores será fundamental eliminar las barreras de entrada a los mercados de exportación que podría tener efectos indirectos favorables a través de la adopción de nuevas tecnologías alcanzables a través de mercados internacionales. ABSTRACT The world is in a state of rapid transition. Ongoing globalization, population growth, rising living standards and increasing urbanization, accompanied by changing dietary patterns throughout the world, are increasing the demand for food. Together with more open trade regimes, this has triggered growing international agricultural trade during the last decade. For many Latin American countries, which are gifted with relative natural resource abundance, these trends have fueled rapid export growth of primary goods. In just 30 years, the Latin American agricultural market share has almost doubled from 10% in 1980 to 18% in 2010. These market developments have given rise to a debate around a number of crucial issues related to the role of agricultural trade for global food security, for the environment or for poverty reduction in developing countries. This thesis uses an integrated framework to analyze a broad array of possible impacts related to transforming agricultural and rural markets in light of globalization, and in particular of increasing trade activity. Specifically, the following issues are approached: First, global food production will have to rise substantially by the year 2050 to meet effective demand of a nine billion people world population which poses major challenges to food production systems. Doing so without compromising environmental integrity in exporting regions is an even greater challenge. In this context, the thesis explores the effects of future global trade liberalization on food security indicators in different world regions and on a variety of environmental indicators at different scales in Latin America and the Caribbean, in due consideration of different future agricultural production practices. The International Model for Policy Analysis of Agricultural Commodities and Trade (IMPACT) –a global dynamic partial equilibrium model of the agricultural sector developed by the International Food Policy Research Institute (IFPRI)– is applied to run different future production scenarios, and agricultural trade regimes out to 2050. Model results are linked to biophysical models, used to assess changes in water footprints and water quality, as well as impacts on biodiversity and carbon stocks from land use change by 2050. Results indicate that further trade liberalization is crucial for improving food security globally, but that it would also lead to more environmental pressures in some regions across Latin America. Contrasting land expansion versus more intensified agriculture shows that productivity improvements are generally superior to agricultural land expansion, from an economic and environmental point of view. Most promising for achieving food security and environmental goals, in equal measure, is the sustainable intensification scenario. However, the analysis shows that there are trade-offs between environmental and food security goals for all agricultural development paths. Second, in light of the recent food price crisis of 2007/08, the thesis looks at the impacts of increasing agricultural market integration on food price transmission from global to domestic markets in six Latin American countries, namely Argentina, Brazil, Chile, Colombia, Mexico and Peru. To identify possible cointegrating relationships between the domestic food consumer price indices and world food price levels, subject to different degrees of agricultural market integration in the six Latin American countries, a single equation error correction model is used. Results suggest that global agricultural market integration has led to different levels of price path-through in the studied countries. Especially in the short-run, transmission rates depend on the degree of trade openness, while in the long-run transmission rates are high, but largely independent of the country-specific trade regime. Hence, under world price shocks more trade openness brings with it more price instability in the short-term and the resulting persistence in the long-term. However, these findings do not necessarily verify the usefulness of trade policies, often applied by governments to buffer such price shocks. First, because there is a considerable risk of price volatility due to domestic supply shocks if self-sufficiency is promoted. Second, protectionism bears the risk of excluding a country from participating in beneficial high-value agricultural supply chains, thereby hampering economic development. Nevertheless, to reduce households’ vulnerability to sudden and large increases of food prices, effective policies to buffer food price shocks should be put in place, but must be carefully planned with the required budget readily available. Third, globalization affects the structure of an economy and, by different means, the distribution of income in a country. Peru serves as an example to dive deeper into questions related to changes in the income distribution in rural areas. Peru, a country being increasingly integrated into global food markets, experienced large drops in extreme rural poverty, but persistently high rates of moderate rural poverty and rural income inequality between 2004 and 2012. The thesis aims at disentangling the driving forces behind these dynamics by using a microsimulation model based on rural household income generation models. Results provide evidence that the main force behind poverty reduction was overall economic growth of the economy due to generally favorable macroeconomic market conditions. These growth effects benefited almost all rural sectors, and led to declines in extreme rural poverty, especially among potato and maize farmers. In part, these farmers probably benefited from policy changes towards more open trade regimes and the resulting higher producer prices in times of elevated global food price levels. However, the results also suggest that entry barriers existed for the poorer part of the population to participate in well-paid wage-employment outside of agriculture or in high-value crop production. This could be explained by a lack of sufficient access to important rural assets. For example, poor people’s educational attainment was hardly better in 2012 than in 2004. Also land and labor endowments, especially of (poor) maize and potato growers, rather decreased than increased over time. This leads to the conclusion that there is still scope for policy action to facilitate access to these assets, which could contribute to the eradication of rural poverty. The thesis concludes that agricultural trade can be one important means to provide a growing and richer world population with sufficient amounts of calories. To avoid adverse environmental effects and negative impacts for poor food consumers and producers, the focus should lie on agricultural productivity improvements, considering environmental limits and be socially inclusive. In this sense, it will be crucial to further develop technological solutions that guarantee resource-sparing agricultural production practices, and to remove entry barriers for small poor farmers to export markets which might allow for technological spill-over effects from high-value global agricultural supply chains.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el presente estudio se propone una metodología para la evaluación de proyectos de implantación de cultivos energéticos, integrando una serie de factores de interés en un modelo de decisión, basado en un enfoque multicriterio. Mediante este modelo se pretende evaluar tanto los territorios más adecuados para la introducción un cultivo energético, como la especie más apropiada a los condicionantes que presenta el lugar elegido. Para este estudio se ha realizado una selección previa de cuatro especies forestales, cuyas características de crecimiento y producción las hace adecuadas para su aplicación en un proyecto de este tipo. Las cuatro especies escogidas han sido chopo, sauce, eucalipto y paulonia. La metodología propuesta ha consistido primero en un estudio ecológico en el ámbito de la Península Ibérica y Baleares, con el fin de identificar aquellas regiones óptimas para cada una de las cuatro especies estudiadas. En este proceso se han seleccionado una serie de factores climáticos, que vendrán definidos a partir de los condicionantes ecológicos de dichas especies. Posteriormente se ha propuesto un modelo multicriterio, basado en técnicas conocidas y de aplicación sencilla, donde se integran aspectos ambientales, económicos y sociales, que vendrán a completar la información ecológica trabajada previamente. Este modelo incluye la técnica de comparación por pares propuesta por el Dr. Saaty en el año 1980, para la ponderación de los factores o criterios seleccionados. Posteriormente, y tras su valoración, se utiliza la suma lineal ponderada como técnica de decisión final. Una vez definido el modelo, se ha aplicado a una comarca en particular, la comarca agraria de Navalmoral de la Mata. A partir de la información recopilada referente a todos los criterios seleccionados previamente en el modelo, se ha procedido a valorar cada uno de ellos. Con estos valores y tras la ponderación de criterios, se ha aplicado el modelo, para obtener finalmente los territorios dentro de la comarca, y las especies forestales con mayor aptitud para el desarrollo de un proyecto de implantación de cultivos energéticos. ABSTRACT A methodology has been proposed for the evaluation of projects to implement energy crops; this includes a number of factors of interest in a decision model based on a multi-criteria approach. This model is to evaluate both the most suitable territories for introducing an energy crop, as the most appropriate species to the conditions presented by the place chosen For this study has made a preliminary selection of four species, with characteristics of growth and production, what making them suitable for use in a project of this type. The four species selected were poplar, willow, eucalyptus and paulownia. The proposed methodology consists first in an ecological study in the context of the Iberian Peninsula and the Balearic Islands, in order to identify those best regions for each of the four species studied. In this process has selected a series of climatic factors, which will be defined from the ecological conditions of these species. Then we have proposed a multi-criteria model based on known techniques and simple application where are integrated environmental, economic and social aspects, which will complement the ecological information previous. This model includes the technique proposed by Dr. Saaty in 1980, the weighting by pairs of factors or criteria selected. Then, after valuation, the weighted linear sum as final decision technique is used. After defining the model has been applied to a particular region, the agrarian region of Navalmoral de la Mata. From the information collected concerning to the criteria previously selected in the model, we proceeded to value each. With these values and assigned weights, the model has been applied to finally get the territories and forest species with greater aptitude for the development of a project to implement energy crops.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las instituciones de educación superior deben gestionar eficaz y eficientemente sus procesos de captación de nuevos estudiantes, y con este objetivo necesitan mejorar su comprensión sobre los antecedentes que inciden en la intención de recomendarlas. Por lo que esta Tesis Doctoral se centra en el estudio y análisis de las componentes de la calidad del servicio de la educación superior, como antecedentes de la intención de recomendación de una institución universitaria. El enfoque que se adopta en esta investigación integra las dimensiones de calidad docente y de calidad de servicio e incorpora en el análisis la valoración global de la carrera. Paralelamente se contempla la moderación de la experiencia y el desempeño académico del estudiante. En esta Tesis Doctoral se hace uso de la Encuesta de Calidad de la Universidad ORT Uruguay cedida a los autores para su explotación con fines de investigación. Los estudiantes cumplimentan la encuesta semestralmente con carácter obligatorio en una plataforma en línea autoadministrada, que permite identificar las valoraciones realizadas por los estudiantes a lo largo de su paso por la universidad. Por lo que la base de datos es un panel no balanceado que consta de 195.058 registros obtenidos, a partir de 7.077 estudiantes en 17 semestres (marzo de 2003 a 2011). La metodología se concreta en los Modelos de Ecuaciones Estructurales, que proporciona una serie de ventajas con respecto a otras aproximaciones. Una de las más importantes es que permite al investigador introducir información a priori y valorar su inclusión, además de reformular las modelizaciones propuestas desde una perspectiva multi-muestra. En esta investigación se estiman los modelos con MPLUS 7. Entre las principales conclusiones de esta Tesis Doctoral cabe señalar que las percepciones de calidad, servicio, docencia y carrera, inciden positivamente en la intención de recomendar la universidad, y que la variable experiencia del estudiante modera dichas relaciones. Los resultados señalan, en general, que a medida que los estudiantes avanzan en su carrera, los efectos totales de la percepción de la calidad del servicio en la calidad global de la carrera y en la intención de recomendar la universidad son mayores que los efectos que tiene la percepción de calidad de la docencia. Estos hallazgos señalan la necesidad que tienen estas instituciones de educación superior de incorporar en su planificación estratégica la segmentación de los estudiantes según su experiencia. ABSTRACT For institutions of higher education to effectively and efficiently manage their processes for attracting new students, they need to understand the influences that activate student intentions to recommend a program and/or college. This Thesis describes research identifying the quality components of a university that serve as antecedents of student intentions to recommend. The research design integrates teaching and service dimensions of higher education, as well as measures of student perceptions of the overall quality of a program. And introduces the student quality and student experience during the program as moderators of these relationships. This Thesis makes use of the Quality Survey of the Universidad ORT Uruguay ceded to the authors for their exploitation for research purposes. The students complete the survey each semester in a self-administered online platform, which allows to identify the assessments conducted by the students throughout its passage by the university. So that the database is an unbalanced panel consisting of 195.058 records obtained from 7.077 students in 17 semesters (march 2003 to 2011). The methodology of analysis incorporated Simultaneous Equation Models, which provides a number of advantages with respect to other approaches. One of the most important is that it allows the researcher to introduce a priori information and assess its inclusion, in addition to reformulate the modellings proposals with a multi-sample approach. In this research the models are estimated with MPLUS 7. Based on the findings, student perceptions of quality, service, teaching and program, impact positively the intent to recommend the university, but the student’s experience during the program moderates these relationships. Overall, the results indicate that as students advance in the program, the full effects of the perception of service quality in the overall quality of the program and in the intention to recommend the university, outweigh the effects of the perceived teaching quality. The results indicate the need for institutions of higher education to incorporate in its strategic planning the segmentation of the students according to their experience during the program.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los retos y oportunidades a los que se enfrentan las organizaciones y administraciones de las primeras décadas del siglo XXI se caracterizan por una serie de fuerzas perturbadoras como la globalización, el avance de las tecnologías emergentes y el desequilibrio económico, que están actuando como impulsores de la transformación del mercado. La acción conjunta de estos factores está obligando a todas las empresas industriales a tener que trabajar con mayores y más exigentes niveles de productividad planteándose continuamente como mejorar y lograr satisfacer los requerimientos de los clientes. De esta situación surge la necesidad de volver a plantearse de nuevo ¿quién es el cliente?, ¿qué valora el cliente? y ¿cómo se pueden generan beneficios sostenibles? La aplicación de esta reflexión a la industria naval militar marca los objetivos a los que esta tesis doctoral busca dar respuesta. El primer objetivo, de carácter general, consiste en la definición de un modelo de negocio sostenible para la industria naval militar del 2025 que se adapte a los requisitos del cliente y al nuevo escenario político, económico, social, tecnológico y ambiental que rodea esta industria. El segundo objetivo, consecuencia del modelo general, trata de desarrollar una metodología para ejecutar programas de apoyo al ciclo de vida del “buque militar”. La investigación se estructura en cuatro partes: en la primera se justifica, por un lado, la necesidad del cambio de modelo y por otro se identifican los factores estructurantes para la definición del modelo. La segunda parte revisa la literatura existente sobre uno de los aspectos básicos para el nuevo modelo, el concepto Producto-Servicio. La tercera parte se centra totalmente en la industria naval militar estudiando los aspectos concretos del sector y, en base al trabajo de campo realizado, se identifican los puntos que más valoran las Marinas de Guerra y como estas gestionan al buque militar durante todo su ciclo de vida. Por último se presentan los principios del modelo propuesto y se desarrollan los pilares básicos para la ejecución de proyectos de Apoyo al Ciclo de Vida (ACV). Como resultado de la investigación, el modelo propuesto para la industria naval militar se fundamenta en once principios: 1. El buque militar (producto de alto valor añadido) debe ser diseñado y construido en un astillero del país que desarrolla el programa de defensa. 2. El diseño tiene que estar orientado al valor para el cliente, es decir, se tiene que diseñar el buque militar para que cumpla su misión, eficaz y eficientemente, durante toda su vida operativa, asegurando la seguridad del buque y de las personas y protegiendo el medio ambiente de acuerdo con las regulaciones vigentes. 3. La empresa debe suministrar soluciones integrales de apoyo al ciclo de vida al producto. 4. Desarrollar y mantener las capacidades de integración de sistemas complejos para todo el ciclo de vida del buque militar. 5. Incorporar las tecnologías digitales al producto, a los procesos, a las personas y al propio modelo de negocio. 6. Desarrollar planes de actuación con el cliente domestico a largo plazo. Estos planes tienen que estar basados en tres premisas: (i) deben incluir el ciclo de vida completo, desde la fase de investigación y desarrollo hasta la retirada del buque del servicio; (ii) la demanda debe ser sofisticada, es decir las exigencias del cliente, tanto desde la óptica de producto como de eficiencia, “tiran” del contratista y (iii) permitir el mantenimiento del nivel tecnológico y de las capacidades industriales de la compañía a futuro y posicionarla para que pueda competir en el mercado de exportación. 7. Impulsar el sector militar de exportación mediante una mayor actividad comercial a nivel internacional. 8. Fomentar la multilocalización ya que representa una oportunidad de crecimiento y favorece la exportación posibilitando el suministro de soluciones integrales en el país destino. 9. Reforzar la diplomacia institucional como palanca para la exportación. 10. Potenciar el liderazgo tecnológico tanto en producto como en procesos con políticas activas de I + D+ i. 11. Reforzar la capacidad de financiación con soluciones innovadoras. El segundo objetivo de esta tesis se centra en el desarrollo de soluciones integrales de Apoyo al Ciclo de Vida (ACV). La metodología planteada trata de minimizar la brecha entre capacidades y necesidades a lo largo de la vida operativa del barco. Es decir, el objetivo principal de los programas de ACV es que la unidad conserve durante toda su vida operativa, en términos relativos a las tecnologías existentes, las capacidades equivalentes a las que tendrá cuando entre en servicio. Los ejes de actuación para conseguir que un programa de Apoyo al Ciclo de Vida cumpla su objetivo son: el diseño orientado al valor, la ingeniería de Apoyo al Ciclo de Vida, los proyectos de refresco de tecnología, el mantenimiento Inteligente y los contratos basados en prestaciones. ABSTRACT On the first decades of the 21st century, organizations and administrations face challenges and come across opportunities threatened by a number of disruptive forces such as globalization, the ever-changing emerging technologies and the economic imbalances acting as drivers of the market transformation. This combination of factors is forcing all industrial companies to have more and higher demanding productivity levels, while bearing always in mind how to improve and meet the customer’s requirements. In this situation, we need to question ourselves again: Who is the customer? What does the customer value? And how can we deliver sustainable economic benefits? Considering this matter in a military naval industry framework sets the goals that this thesis intends to achieve. The first general goal is the definition of a new sustainable business model for the 2025 naval industry, adapted to the customer requirements and the new political, economic, social, technological and environmental scenario. And the second goal that arises as a consequence of the general model develops a methodology to implement “warship” through life support programs. The research is divided in four parts: the first one justifies, on the one hand, the need to change the existing model and, on the other, identifies the model structural factors. On the second part, current literature regarding one of the key issues on the new model (the Product-Service concept) is reviewed. Based on field research, the third part focuses entirely on military shipbuilding, analyzing specific key aspects of this field and identifying which of them are valued the most by Navies and how they manage through life cycles of warships. Finally, the foundation of the proposed model is presented and also the basic grounds for implementing a Through Life Support (TLS) program are developed. As a result of this research, the proposed model for the naval industry is based on eleven (11) key principles: 1. The warship (a high added value product) must be designed and built in a shipyard at the country developing the defense program. 2. Design must be customer value oriented, i.e.warship must be designed to effectively fulfill its mission throughout its operational life, ensuring safety at the ship and for the people and protecting the environment in accordance with current regulations. 3. The industry has to provide integrated Through Life Support solutions. 4. Develop and maintain integrated complex systems capabilities for the entire warship life cycle. 5. Introduce the product, processes, people and business model itself to digital technologies. 6. Develop long-term action plans with the domestic customer. These plans must be based on three premises: (i) the complete life cycle must be included, starting from the research and development stage throughout the ship’s disposal; (ii) customer demand has to be sophisticated, i.e. customer requirements, both from the efficiency and product perspective, "attract" the contractor and (iii) technological level and manufacturing capabilities of the company in the future must be maintained and a competitive position on the export market has to be achieved. 7. Promote the military exporting sector through increased international business. 8. Develop contractor multi-location as it entails an opportunity for growth and promote export opportunities providing integrated solutions in the customer's country. 9. Strengthen institutional diplomacy as a lever for export. 10. Promote technological leadership in both product and processes with active R & D & I policies (Research & Development & Innovation) 11. Strengthen financing capacity through innovative solutions. The second goal of this thesis is focused on developing integrated Through Life Support (TLS) solutions. The proposed methodology tries to minimize the gap between needs and capabilities through the ship operational life. It means, the main TLS program objective is to maintain the ship’s performance and capabilities during operational life, in relative terms to current technologies, equivalent to those the ship had when it entered service. The main actions to fulfill the TLS program objectives are: value-oriented design, TLS engineering, technology updating projects, intelligent maintenance and performance based contracts.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The proliferation of video games and other applications of computer graphics in everyday life demands a much easier way to create animatable virtual human characters. Traditionally, this has been the job of highly skilled artists and animators that painstakingly model, rig and animate their avatars, and usually have to tune them for each application and transmission/rendering platform. The emergence of virtual/mixed reality environments also calls for practical and costeffective ways to produce custom models of actual people. The purpose of the present dissertation is bringing 3D human scanning closer to the average user. For this, two different techniques are presented, one passive and one active. The first one is a fully automatic system for generating statically multi-textured avatars of real people captured with several standard cameras. Our system uses a state-of-the-art shape from silhouette technique to retrieve the shape of subject. However, to deal with the lack of detail that is common in the facial region for these kind of techniques, which do not handle concavities correctly, our system proposes an approach to improve the quality of this region. This face enhancement technique uses a generic facial model which is transformed according to the specific facial features of the subject. Moreover, this system features a novel technique for generating view-independent texture atlases computed from the original images. This static multi-texturing system yields a seamless texture atlas calculated by combining the color information from several photos. We suppress the color seams due to image misalignments and irregular lighting conditions that multi-texturing approaches typically suffer from, while minimizing the blurring effect introduced by color blending techniques. The second technique features a system to retrieve a fully animatable 3D model of a human using a commercial depth sensor. Differently to other approaches in the current state of the art, our system does not require the user to be completely still through the scanning process, and neither the depth sensor is moved around the subject to cover all its surface. Instead, the depth sensor remains static and the skeleton tracking information is used to compensate the user’s movements during the scanning stage. RESUMEN La popularización de videojuegos y otras aplicaciones de los gráficos por ordenador en el día a día requiere una manera más sencilla de crear modelos virtuales humanos animables. Tradicionalmente, estos modelos han sido creados por artistas profesionales que cuidadosamente los modelan y animan, y que tienen que adaptar específicamente para cada aplicación y plataforma de transmisión o visualización. La aparición de los entornos de realidad virtual/mixta aumenta incluso más la demanda de técnicas prácticas y baratas para producir modelos 3D representando personas reales. El objetivo de esta tesis es acercar el escaneo de humanos en 3D al usuario medio. Para ello, se presentan dos técnicas diferentes, una pasiva y una activa. La primera es un sistema automático para generar avatares multi-texturizados de personas reales mediante una serie de cámaras comunes. Nuestro sistema usa técnicas del estado del arte basadas en shape from silhouette para extraer la forma del sujeto a escanear. Sin embargo, este tipo de técnicas no gestiona las concavidades correctamente, por lo que nuestro sistema propone una manera de incrementar la calidad en una región del modelo que se ve especialmente afectada: la cara. Esta técnica de mejora facial usa un modelo 3D genérico de una cara y lo modifica según los rasgos faciales específicos del sujeto. Además, el sistema incluye una novedosa técnica para generar un atlas de textura a partir de las imágenes capturadas. Este sistema de multi-texturización consigue un atlas de textura sin transiciones abruptas de color gracias a su manera de mezclar la información de color de varias imágenes sobre cada triángulo. Todas las costuras y discontinuidades de color debidas a las condiciones de iluminación irregulares son eliminadas, minimizando el efecto de desenfoque de la interpolación que normalmente introducen este tipo de métodos. La segunda técnica presenta un sistema para conseguir un modelo humano 3D completamente animable utilizando un sensor de profundidad. A diferencia de otros métodos del estado de arte, nuestro sistema no requiere que el usuario esté completamente quieto durante el proceso de escaneado, ni mover el sensor alrededor del sujeto para cubrir toda su superficie. Por el contrario, el sensor se mantiene estático y el esqueleto virtual de la persona, que se va siguiendo durante el proceso, se utiliza para compensar sus movimientos durante el escaneado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa objetiva analisar o desenvolvimento da missão adventista na cidade de São Paulo em busca de um modelo missiológico para centros urbanos. São Paulo, uma das maiores metrópoles do mundo tem uma formação cultural plural, não apenas pelas forças atuantes da modernização, secularização, globalização e pós-modernidade. A composição da população da cidade possui uma gênese étnica plural. Além da matriz autóctone indígena, do colonizador branco europeu e dos escravos africanos, desde o início do século XIX chegaram outros imigrantes, europeus e asiáticos. Nas primeiras décadas do século XX, o Brasil foi o país que mais recebeu imigrantes em todo o mundo. Estima-se que nos anos de 1920, apenas um terço da população na cidade de São Paulo fosse de brasileiros, o restante era composto por imigrantes. A inserção do adventismo em São Paulo se deu por missionários imigrantes que trabalharam primeiro com outros imigrantes antes de evangelizar e desenvolver a missão adventista com os brasileiros nacionais. De alguma forma, esse início deixou marcas na missão adventista paulistana. São Paulo é hoje a cidade com o maior número total de adventistas no mundo e a única com Igrejas Adventistas étnicas que atendem cinco grupos étnicos distintos: japoneses, coreanos, judeus, árabes e bolivianos/peruanos. Esta pesquisa busca investigar a formação de uma sensibilidade cultural no adventismo paulistano que lhe permitiu dialogar com a pluralidade cultural da metrópole paulistana.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho é referente ao desenvolvimento de um calibrador multiobjetivo automático do modelo SWMM (Storm Water Management Model), e avaliação de algumas fontes de incertezas presentes no processo de calibração, visando à representação satisfatória da transformação chuva-vazão. O código foi escrito em linguagem C, e aplica os conceitos do método de otimização multiobjetivo NSGAII (Non Dominated Sorting Genetic Algorithm) com elitismo controlado, além de utilizar o código fonte do modelo SWMM para a determinação das vazões simuladas. Paralelamente, também foi criada uma interface visual, para melhorar a facilidade de utilização do calibrador. Os testes do calibrador foram aplicados a três sistemas diferentes: um sistema hipotético disponibilizado no pacote de instalação do SWMM; um sistema real de pequenas dimensões, denominado La Terraza, localizado no município de Sierra Vista, Arizona (EUA); e um sistema de maiores dimensões, a bacia hidrográfica do Córrego do Gregório, localizada no município de São Carlos (SP). Os resultados indicam que o calibrador construído apresenta, em geral, eficiência satisfatória, porém é bastante dependente da qualidade dos dados observados em campo e dos parâmetros de entrada escolhidos pelo usuário. Foi demonstrada a importância da escolha dos eventos utilizados na calibração, do estabelecimento de limites adequados nos valores das variáveis de decisão, da escolha das funções objetivo e, principalmente, da qualidade e representatividade dos dados de monitoramento pluvio e fluviométrico. Conclui-se que estes testes desenvolvidos contribuem para o entendimento mais aprofundado dos processos envolvidos na modelagem e calibração, possibilitando avanços na confiabilidade dos resultados da modelagem.