1000 resultados para Interoperabilidad entre sistemas de información


Relevância:

80.00% 80.00%

Publicador:

Resumo:

El actual contexto de fabricación, con incrementos en los precios de la energía, una creciente preocupación medioambiental y cambios continuos en los comportamientos de los consumidores, fomenta que los responsables prioricen la fabricación respetuosa con el medioambiente. El paradigma del Internet de las Cosas (IoT) promete incrementar la visibilidad y la atención prestada al consumo de energía gracias tanto a sensores como a medidores inteligentes en los niveles de máquina y de línea de producción. En consecuencia es posible y sencillo obtener datos de consumo de energía en tiempo real proveniente de los procesos de fabricación, pero además es posible analizarlos para incrementar su importancia en la toma de decisiones. Esta tesis pretende investigar cómo utilizar la adopción del Internet de las Cosas en el nivel de planta de producción, en procesos discretos, para incrementar la capacidad de uso de la información proveniente tanto de la energía como de la eficiencia energética. Para alcanzar este objetivo general, la investigación se ha dividido en cuatro sub-objetivos y la misma se ha desarrollado a lo largo de cuatro fases principales (en adelante estudios). El primer estudio de esta tesis, que se apoya sobre una revisión bibliográfica comprehensiva y sobre las aportaciones de expertos, define prácticas de gestión de la producción que son energéticamente eficientes y que se apoyan de un modo preeminente en la tecnología IoT. Este primer estudio también detalla los beneficios esperables al adoptar estas prácticas de gestión. Además, propugna un marco de referencia para permitir la integración de los datos que sobre el consumo energético se obtienen en el marco de las plataformas y sistemas de información de la compañía. Esto se lleva a cabo con el objetivo último de remarcar cómo estos datos pueden ser utilizados para apalancar decisiones en los niveles de procesos tanto tácticos como operativos. Segundo, considerando los precios de la energía como variables en el mercado intradiario y la disponibilidad de información detallada sobre el estado de las máquinas desde el punto de vista de consumo energético, el segundo estudio propone un modelo matemático para minimizar los costes del consumo de energía para la programación de asignaciones de una única máquina que deba atender a varios procesos de producción. Este modelo permite la toma de decisiones en el nivel de máquina para determinar los instantes de lanzamiento de cada trabajo de producción, los tiempos muertos, cuándo la máquina debe ser puesta en un estado de apagada, el momento adecuado para rearrancar, y para pararse, etc. Así, este modelo habilita al responsable de producción de implementar el esquema de producción menos costoso para cada turno de producción. En el tercer estudio esta investigación proporciona una metodología para ayudar a los responsables a implementar IoT en el nivel de los sistemas productivos. Se incluye un análisis del estado en que se encuentran los sistemas de gestión de energía y de producción en la factoría, así como también se proporcionan recomendaciones sobre procedimientos para implementar IoT para capturar y analizar los datos de consumo. Esta metodología ha sido validada en un estudio piloto, donde algunos indicadores clave de rendimiento (KPIs) han sido empleados para determinar la eficiencia energética. En el cuarto estudio el objetivo es introducir una vía para obtener visibilidad y relevancia a diferentes niveles de la energía consumida en los procesos de producción. El método propuesto permite que las factorías con procesos de producción discretos puedan determinar la energía consumida, el CO2 emitido o el coste de la energía consumida ya sea en cualquiera de los niveles: operación, producto o la orden de fabricación completa, siempre considerando las diferentes fuentes de energía y las fluctuaciones en los precios de la misma. Los resultados muestran que decisiones y prácticas de gestión para conseguir sistemas de producción energéticamente eficientes son posibles en virtud del Internet de las Cosas. También, con los resultados de esta tesis los responsables de la gestión energética en las compañías pueden plantearse una aproximación a la utilización del IoT desde un punto de vista de la obtención de beneficios, abordando aquellas prácticas de gestión energética que se encuentran más próximas al nivel de madurez de la factoría, a sus objetivos, al tipo de producción que desarrolla, etc. Así mismo esta tesis muestra que es posible obtener reducciones significativas de coste simplemente evitando los períodos de pico diario en el precio de la misma. Además la tesis permite identificar cómo el nivel de monitorización del consumo energético (es decir al nivel de máquina), el intervalo temporal, y el nivel del análisis de los datos son factores determinantes a la hora de localizar oportunidades para mejorar la eficiencia energética. Adicionalmente, la integración de datos de consumo energético en tiempo real con datos de producción (cuando existen altos niveles de estandarización en los procesos productivos y sus datos) es esencial para permitir que las factorías detallen la energía efectivamente consumida, su coste y CO2 emitido durante la producción de un producto o componente. Esto permite obtener una valiosa información a los gestores en el nivel decisor de la factoría así como a los consumidores y reguladores. ABSTRACT In today‘s manufacturing scenario, rising energy prices, increasing ecological awareness, and changing consumer behaviors are driving decision makers to prioritize green manufacturing. The Internet of Things (IoT) paradigm promises to increase the visibility and awareness of energy consumption, thanks to smart sensors and smart meters at the machine and production line level. Consequently, real-time energy consumption data from the manufacturing processes can be easily collected and then analyzed, to improve energy-aware decision-making. This thesis aims to investigate how to utilize the adoption of the Internet of Things at shop floor level to increase energy–awareness and the energy efficiency of discrete production processes. In order to achieve the main research goal, the research is divided into four sub-objectives, and is accomplished during four main phases (i.e., studies). In the first study, by relying on a comprehensive literature review and on experts‘ insights, the thesis defines energy-efficient production management practices that are enhanced and enabled by IoT technology. The first study also explains the benefits that can be obtained by adopting such management practices. Furthermore, it presents a framework to support the integration of gathered energy data into a company‘s information technology tools and platforms, which is done with the ultimate goal of highlighting how operational and tactical decision-making processes could leverage such data in order to improve energy efficiency. Considering the variable energy prices in one day, along with the availability of detailed machine status energy data, the second study proposes a mathematical model to minimize energy consumption costs for single machine production scheduling during production processes. This model works by making decisions at the machine level to determine the launch times for job processing, idle time, when the machine must be shut down, ―turning on‖ time, and ―turning off‖ time. This model enables the operations manager to implement the least expensive production schedule during a production shift. In the third study, the research provides a methodology to help managers implement the IoT at the production system level; it includes an analysis of current energy management and production systems at the factory, and recommends procedures for implementing the IoT to collect and analyze energy data. The methodology has been validated by a pilot study, where energy KPIs have been used to evaluate energy efficiency. In the fourth study, the goal is to introduce a way to achieve multi-level awareness of the energy consumed during production processes. The proposed method enables discrete factories to specify energy consumption, CO2 emissions, and the cost of the energy consumed at operation, production and order levels, while considering energy sources and fluctuations in energy prices. The results show that energy-efficient production management practices and decisions can be enhanced and enabled by the IoT. With the outcomes of the thesis, energy managers can approach the IoT adoption in a benefit-driven way, by addressing energy management practices that are close to the maturity level of the factory, target, production type, etc. The thesis also shows that significant reductions in energy costs can be achieved by avoiding high-energy price periods in a day. Furthermore, the thesis determines the level of monitoring energy consumption (i.e., machine level), the interval time, and the level of energy data analysis, which are all important factors involved in finding opportunities to improve energy efficiency. Eventually, integrating real-time energy data with production data (when there are high levels of production process standardization data) is essential to enable factories to specify the amount and cost of energy consumed, as well as the CO2 emitted while producing a product, providing valuable information to decision makers at the factory level as well as to consumers and regulators.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En los últimos años, las energías renovables han pasado a jugar un papel fundamental en el abastecimiento energético mundial, debido al aumento de la demanda de energía y a la creciente problemática ambiental. Sin embargo, las energías renovables no están exentas de problemas medioambientales, y factores como la ocupación del territorio y el impacto visual hacen que su aceptación social disminuya. En el caso de la energía eólica, la disposición de los aerogeneradores queda condicionada por la intermitencia en la dirección e intensidad del viento, lo que complica la reducción del impacto visual de los parques eólicos y, por tanto, su aceptación social. Debido a la complejidad de los escenarios en los que se sitúan estas instalaciones, existe una gran diversidad de metodologías para optimizar su integración en el paisaje, pero no hay una metodología generalizada que considere que la población debe jugar un papel importante en su desarrollo. Para conocer y valorar el impacto visual que genera el parque eólico "La Plata", se han aplicado tres metodologías: una basada en la valoración cualitativa de los escenarios de población, otra en el uso de Sistemas de Información Geográfica (SIG) y la última a través de cuestionarios, comprobando así la equidad en los resultados de las tres metodologías. Aplicadas las tres metodologías y comparando los resultados, todas ellas coinciden en la valoración del impacto visual negativo en el paisaje del parque eólico ?La Plata?, si bien la metodología que se apoya en el uso de cuestionarios incide directamente en la percepción de la población de este impacto, y discierne sus principales problemas. Para determinar la situación del arbolado propuesto se ha utilizado un SIG seleccionando las áreas prioritarias y así evaluar la reducción del impacto visual producido.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El trabajo consiste en la realización de un plan de implantación de un sistema tranviario en la ciudad de Valladolid. El documento memoria del plan se estructura según las fases de planificación de una actuación en transporte público: descripción y diagnóstico territorial, formulación de fines y objetivos, generación de un total de 8 alternativas, selección de alternativas mediante métodos multicriterio y evaluación de la rentabilidad socioeconómica de la inversión. Además, se incluyeron aspectos de sostenibilidad y planeamiento colaborativo en las distintas fases del proceso. Se empleó un software de Sistemas de Información Geográfica como herramienta básica para el diagnóstico y la evaluación multicriterio de las alternativas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La estructura económica mundial, con centros de producción y consumo descentralizados y el consiguiente aumento en el tráfico de mercancías en todo el mundo, crea considerables problemas y desafíos para el sector del transporte de mercancías. Esta situación ha llevado al transporte marítimo a convertirse en el modo más económico y más adecuado para el transporte de mercancías a nivel global. De este modo, los puertos marítimos se configuran como nodos de importancia capital en la cadena de suministro al servir como enlace entre dos sistemas de transporte, el marítimo y el terrestre. El aumento de la actividad en los puertos marítimos produce tres efectos indeseables: el aumento de la congestión vial, la falta de espacio abierto en las instalaciones portuarias y un impacto ambiental significativo en los puertos marítimos. Los puertos secos nacen para favorecer la utilización de cada modo de transporte en los segmentos en que resultan más competitivos y para mitigar estos problemas moviendo parte de la actividad en el interior. Además, gracias a la implantación de puertos secos es posible discretizar cada uno de los eslabones de la cadena de transporte, permitiendo que los modos más contaminantes y con menor capacidad de transporte tengan itinerarios lo más cortos posible, o bien, sean utilizados únicamente para el transporte de mercancías de alto valor añadido. Así, los puertos secos se presentan como una oportunidad para fortalecer las soluciones intermodales como parte de una cadena integrada de transporte sostenible, potenciando el transporte de mercancías por ferrocarril. Sin embargo, su potencial no es aprovechado al no existir una metodología de planificación de la ubicación de uso sencillo y resultados claros para la toma de decisiones a partir de los criterios ingenieriles definidos por los técnicos. La decisión de dónde ubicar un puerto seco exige un análisis exhaustivo de toda la cadena logística, con el objetivo de transferir el mayor volumen de tráfico posible a los modos más eficientes desde el punto de vista energético, que son menos perjudiciales para el medio ambiente. Sin embargo, esta decisión también debe garantizar la sostenibilidad de la propia localización. Esta Tesis Doctoral, pretende sentar las bases teóricas para el desarrollo de una herramienta de Herramienta de Ayuda a la Toma de Decisiones que permita establecer la localización más adecuada para la construcción de puertos secos. Este primer paso es el desarrollo de una metodología de evaluación de la sostenibilidad y la calidad de las localizaciones de los puertos secos actuales mediante el uso de las siguientes técnicas: Metodología DELPHI, Redes Bayesianas, Análisis Multicriterio y Sistemas de Información Geográfica. Reconociendo que la determinación de la ubicación más adecuada para situar diversos tipos de instalaciones es un importante problema geográfico, con significativas repercusiones medioambientales, sociales, económicos, locacionales y de accesibilidad territorial, se considera un conjunto de 40 variables (agrupadas en 17 factores y estos, a su vez, en 4 criterios) que permiten evaluar la sostenibilidad de las localizaciones. El Análisis Multicriterio se utiliza como forma de establecer una puntuación a través de un algoritmo de scoring. Este algoritmo se alimenta a través de: 1) unas calificaciones para cada variable extraídas de información geográfica analizada con ArcGIS (Criteria Assessment Score); 2) los pesos de los factores obtenidos a través de un cuestionario DELPHI, una técnica caracterizada por su capacidad para alcanzar consensos en un grupo de expertos de muy diferentes especialidades: logística, sostenibilidad, impacto ambiental, planificación de transportes y geografía; y 3) los pesos de las variables, para lo que se emplean las Redes Bayesianas lo que supone una importante aportación metodológica al tratarse de una novedosa aplicación de esta técnica. Los pesos se obtienen aprovechando la capacidad de clasificación de las Redes Bayesianas, en concreto de una red diseñada con un algoritmo de tipo greedy denominado K2 que permite priorizar cada variable en función de las relaciones que se establecen en el conjunto de variables. La principal ventaja del empleo de esta técnica es la reducción de la arbitrariedad en la fijación de los pesos de la cual suelen adolecer las técnicas de Análisis Multicriterio. Como caso de estudio, se evalúa la sostenibilidad de los 10 puertos secos existentes en España. Los resultados del cuestionario DELPHI revelan una mayor importancia a la hora de buscar la localización de un Puerto Seco en los aspectos tenidos en cuenta en las teorías clásicas de localización industrial, principalmente económicos y de accesibilidad. Sin embargo, no deben perderse de vista el resto de factores, cuestión que se pone de manifiesto a través del cuestionario, dado que ninguno de los factores tiene un peso tan pequeño como para ser despreciado. Por el contrario, los resultados de la aplicación de Redes Bayesianas, muestran una mayor importancia de las variables medioambientales, por lo que la sostenibilidad de las localizaciones exige un gran respeto por el medio natural y el medio urbano en que se encuadra. Por último, la aplicación práctica refleja que la localización de los puertos secos existentes en España en la actualidad presenta una calidad modesta, que parece responder más a decisiones políticas que a criterios técnicos. Por ello, deben emprenderse políticas encaminadas a generar un modelo logístico colaborativo-competitivo en el que se evalúen los diferentes factores tenidos en cuenta en esta investigación. The global economic structure, with its decentralized production and the consequent increase in freight traffic all over the world, creates considerable problems and challenges for the freight transport sector. This situation has led shipping to become the most suitable and cheapest way to transport goods. Thus, ports are configured as nodes with critical importance in the logistics supply chain as a link between two transport systems, sea and land. Increase in activity at seaports is producing three undesirable effects: increasing road congestion, lack of open space in port installations and a significant environmental impact on seaports. These adverse effects can be mitigated by moving part of the activity inland. Implementation of dry ports is a possible solution and would also provide an opportunity to strengthen intermodal solutions as part of an integrated and more sustainable transport chain, acting as a link between road and railway networks. In this sense, implementation of dry ports allows the separation of the links of the transport chain, thus facilitating the shortest possible routes for the lowest capacity and most polluting means of transport. Thus, the decision of where to locate a dry port demands a thorough analysis of the whole logistics supply chain, with the objective of transferring the largest volume of goods possible from road to more energy efficient means of transport, like rail or short-sea shipping, that are less harmful to the environment. However, the decision of where to locate a dry port must also ensure the sustainability of the site. Thus, the main goal of this dissertation is to research the variables influencing the sustainability of dry port location and how this sustainability can be evaluated. With this objective, in this research we present a methodology for assessing the sustainability of locations by the use of Multi-Criteria Decision Analysis (MCDA) and Bayesian Networks (BNs). MCDA is used as a way to establish a scoring, whilst BNs were chosen to eliminate arbitrariness in setting the weightings using a technique that allows us to prioritize each variable according to the relationships established in the set of variables. In order to determine the relationships between all the variables involved in the decision, giving us the importance of each factor and variable, we built a K2 BN algorithm. To obtain the scores of each variable, we used a complete cartography analysed by ArcGIS. Recognising that setting the most appropriate location to place a dry port is a geographical multidisciplinary problem, with significant economic, social and environmental implications, we consider 41 variables (grouped into 17 factors) which respond to this need. As a case of study, the sustainability of all of the 10 existing dry ports in Spain has been evaluated. In this set of logistics platforms, we found that the most important variables for achieving sustainability are those related to environmental protection, so the sustainability of the locations requires a great respect for the natural environment and the urban environment in which they are framed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de esta investigación consiste en definir un modelo de reserva de capacidad, por analogías con emergencias hospitalarias, que pueda ser implementado en el sector de servicios. Este está específicamente enfocado a su aplicación en talleres de servicio de automóviles. Nuestra investigación incorpora la incertidumbre de la demanda en un modelo singular diseñado en etapas que agrupa técnicas ARIMA, teoría de colas y simulación Monte Carlo para definir los conceptos de capacidad y ocupación de servicio, que serán utilizados para minimizar el coste implícito de la reserva capacidad necesaria para atender a clientes que carecen de cita previa. Habitualmente, las compañías automovilísticas estiman la capacidad de sus instalaciones de servicio empíricamente, pero los clientes pueden llegar bajo condiciones de incertidumbre que no se tienen en cuenta en dichas estimaciones, por lo que existe una diferencia entre lo que el cliente realmente demanda y la capacidad que ofrece el servicio. Nuestro enfoque define una metodología válida para el sector automovilístico que cubre la ausencia genérica de investigaciones recientes y la habitual falta de aplicación de técnicas estadísticas en el sector. La equivalencia con la gestión de urgencias hospitalarias se ha validado a lo largo de la investigación en la se definen nuevos indicadores de proceso (KPIs) Tal y como hacen los hospitales, aplicamos modelos estocásticos para dimensionar las instalaciones de servicio de acuerdo con la distribución demográfica del área de influencia. El modelo final propuesto integra la predicción del coste implícito en la reserva de capacidad para atender la demanda no prevista. Asimismo, se ha desarrollado un código en Matlab que puede integrarse como un módulo adicional a los sistemas de información (DMS) que se usan actualmente en el sector, con el fin de emplear los nuevos indicadores de proceso definidos en el modelo. Los resultados principales del modelo son nuevos indicadores de servicio, tales como la capacidad, ocupación y coste de reserva de capacidad, que nunca antes han sido objeto de estudio en la industria automovilística, y que están orientados a gestionar la operativa del servicio. ABSTRACT Our aim is to define a Capacity Reserve model to be implemented in the service sector by hospital's emergency room (ER) analogies, with a practical approach to passenger car services. A stochastic model has been implemented using R and a Monte Carlo simulation code written in Matlab and has proved a very useful tool for optimal decision making under uncertainty. The research integrates demand uncertainty in a unique model which is built in stages by implementing ARIMA forecasting, Queuing Theory and a Monte Carlo simulation to define the concepts of service capacity and occupancy, minimizing the implicit cost of the capacity that must be reserved to service unexpected customers. Usually, passenger car companies estimate their service facilities capacity using empirical methods, but customers arrive under uncertain conditions not included in the estimations. Thus, there is a gap between customer’s real demand and the dealer’s capacity. This research sets a valid methodology for the passenger car industry to cover the generic absence of recent researches and the generic lack of statistical techniques implementation. The hospital’s emergency room (ER) equalization has been confirmed to be valid for the passenger car industry and new process indicators have been defined to support the study. As hospitals do, we aim to apply stochastic models to dimension installations according to the demographic distribution of the area to be serviced. The proposed model integrates the prediction of the cost implicit in the reserve capacity to serve unexpected demand. The Matlab code could be implemented as part of the existing information technology systems (ITs) to support the existing service management tools, creating a set of new process indicators. Main model outputs are new indicators, such us Capacity, Occupancy and Cost of Capacity Reserve, never studied in the passenger car service industry before, and intended to manage the service operation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo principal del trabajo es demostrar que la utilización y conjunción de técnicas como la micro-segmentación y los Sistemas de Información Geográfica (SIG) que hacen posible plasmar territorialmente los resultados de los análisis; pueden satisfacer de forma más equitativa y eficiente las necesidades de la demanda ciudadana en materia de equipamientos públicos, ayudando así a minimizar las disparidades entre oferta y demanda. En particular, se intenta demostrar que con la conjunción de las técnicas mencionadas es posible dar solución a la baja capacidad de las administraciones para atender las necesidades de equipamientos públicos, construyendo unos segmentos poblacionales diferenciados socio-espacialmente. Esos segmentos corresponden a unos perfiles o tipologías que clasifican a la población de manera más ajustada a la situación y condiciones actuales, en aspectos no solo sociodemográficos o económicos, sino también psicográficos (estilos de vida, motivaciones, gustos, etc). En ese sentido, se busca la viabilidad y aplicación de la conocida técnica de la micro-segmentación, utilizada con éxito en el análisis de mercados en la empresa pública, ahora en la provisión de equipamientos públicos. Lo anterior implica reconocer e interpretar hasta qué punto las dos tecnologías (microsegmentación y SIG) pueden resolver cuestiones en la implantación de servicios y/o equipamientos públicos, e involucra una reingeniería de los procesos operativos, un cambio de cultura y una modernización en la transferencia de los servicios públicos de las administraciones locales. Para validar las brechas existentes entre las necesidades heterogéneas de la demanda urbana y la provisión de equipamientos colectivos por parte de los organismos públicos; se incorpora una serie modelos, principios y técnicas conocidas y avanzadas, como la localización óptima de equipamientos, con el fin de analizar las capacidades que tienen dichos equipamientos para satisfacer la demanda actual. Por último y para profundizar en la investigación se realiza un contraste de las tipologías ciudadanas con los estilos de vida de la población, que busca incorporar la dimensión consumo en la validación de las brechas entre la demanda y la oferta. Con ello se reconoce la importancia que tiene para el estudio los resultados emanados a partir del producto Mosaic de la empresa Experian y la oportunidad de poder evidenciar, reconocer y complementar los resultados del ejercicio para hacer más fuerte la hipótesis planteada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La habitabilidad precaria (HaP) constituye hoy el primer problema mundial del urbanismo, la ordenación del territorio y varias otras disciplinas, como la arquitectura y varias ingenierías que, en conjunto, estructuran e impulsan el sector de la construcción mundial que se centra en atender el alojamiento humano en su diversidad de funciones. En la Conferencia Habitat II, celebrada en 1996 en Estambul, ante el desmesurado crecimiento cuantitativo de la HaP mundial, se planteó la prioridad de prevenir el problema de los nuevos asentamientos precarios: “paliar los problemas relacionados con los asentamientos humanos espontáneos mediante programas y políticas que se anticipen a los asentamientos no planeados”1, sin embargo, tras casi veinte años, aún no existe una herramienta sustantiva y específica que facilite a los políticos responsables de gestionar el desarrollo urbano en ciudades con bajos recursos de países en desarrollo, tomar decisiones que transformen de la forma más eficiente posible el fenómeno de la proliferación de asentamientos informales en una oportunidad de progreso y prosperidad para sus ciudades. La presente tesis parte de la convicción, que trata de fundamentar objetivamente a lo largo del desarrollo de su documentación, de que dicha herramienta fundamental ha de buscarse, a partir de la teoría Habitabilidad Básica, como un soporte esencial con el que reconducir los futuros procesos de ocupación espontánea periurbana. El propósito de la investigación se concreta en caracterizar, y conocer la óptima aplicabilidad, de un instrumento operativo elemental que ayude en la toma de decisiones estratégicas de las autoridades responsables sobre la mejor ubicación de los asentamientos que, hasta la existencia y aplicabilidad de este instrumento, se consideran espontáneos. Asentamientos espontáneos éstos que, en condiciones normales quedarían sujetos durante años a la precariedad mientras que por medio de tal instrumento abandonarían su génesis espontánea para acceder a través de planificación elemental a condiciones de Habitabilidad Básica. La materialización concreta de esta herramienta sería un plano sintético de directrices de ordenación territorial y urbana denominado Plano de Elección del Sitio (PES). Diseñado como un Modelo Teórico Elemental, su aplicación estaría preferentemente orientada a ciudades pequeñas de países en desarrollo que presenten escaso nivel institucional, limitada capacidad económica y técnica, así como ausencia o ineficacia en su planeamiento. A través de un proceso de investigación basado en: la mencionada teoría de la Habitabilidad Básica, la literatura científica de la materia y las experiencias de casos recientes de planificación urbana mediante la aplicación de sistemas de información del suelo, se propone una caracterización y aplicabilidad preliminar de la herramienta. Tras analizar pormenorizadamente sus fortalezas y debilidades y contando con la participación de un grupo de expertos independientes, el trabajo concluye con una nueva caracterización de la herramienta y la reformulación de la hipótesis inicial. ABSTRACT Nowadays, the precarious habitability (PHa) is the main problem of urbanism around the world, land-use planning and several other disciplines such as architecture and different engineering studies that, as a whole, structure and boost the global construction sector which focuses on meeting the Human accommodation in its functional diversity. In the Habitat II Conference in Istanbul in 1996, in light of the excessive quantitative growth of the global PHa, the priority of preventing the problem of new squatter settlements was raised: "to alleviate the problems related to spontaneous human settlements through programs and policies that anticipate unplanned settlements"2, however, after nearly twenty years, there is still no substantive and specific tool to facilitate policy makers to manage urban development for towns with low-income in developing countries, taking decisions that transform as efficiently as possible the phenomenon of the proliferation of informal settlements into an opportunity for progress and prosperity for their cities. This thesis is based on the conviction, which tries to objectively substantiate along the development of its documentation, that this fundamental tool has to be sought from the Basic Habitability theory as an essential support to redirect the future processes of peri-urban spontaneous occupation. The purpose of the research is carried out to characterize, and know the optimum applicability of a basic operational tool to assist in the strategic decisions making of the responsible authorities on the best location of settlements that, until the existence and applicability of this instrument, are considered spontaneous. Spontaneous settlements which, under normal conditions would be subject to the precariousness for years while under that instrument they would abandon their spontaneous genesis for accessing by elemental planning to the Basic Habitability. The concretionary materialization of this tool would be a synthetic guidelines plan of territorial and urban planning called Site Election Plan (SEP). Designed as a Elementary Theoretical Model, its application would preferably be oriented for small towns in developing countries that represent a low institutional, economic and technical limited capacity, as well as the absence or ineffectiveness in their planning. Throughout a research process based on: the aforementioned theory of Basic Habitability, the scientific literature of the subject and the experiences of recent cases of urban planning through the application of soil information systems, characterization and preliminary applicability of the tool is proposed. After attentively analyzing their strengths and weaknesses and with the participation of a group of independent experts, the paper concludes with a new characterization of the tool and the reformulation of the initial hypothesis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se describen los diversos desarrollos de los indicadores de accesibilidad en la planificación del transporte desde los años 80. Los inicios basados en indicadores de tipo topológico han dado paso a indicadores más complejos que incorporan el efecto atractor de las actividades en destino y la tipología y calidad de las redes que comunican el par origen-destino. Posteriormente se han desarrollado indicadores capaces de medir los efectos territoriales, los impactos económicos y también los ambientales. Todo ello ha sido posible con la introducción en este campo de los Sistemas de Información Geográfica, cada vez más potentes en capacidad de cálculo y de visualización de resultados. Por último se presentan la generación de indicadores que permiten introducir la medida de la equidad y otros efectos sociales en el caso de aplicar medidas de gestión de la demanda, como peajes urbanos, y mejora de los servicios de transporte público.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Debido al creciente aumento del tamaño de los datos en muchos de los actuales sistemas de información, muchos de los algoritmos de recorrido de estas estructuras pierden rendimento para realizar búsquedas en estos. Debido a que la representacion de estos datos en muchos casos se realiza mediante estructuras nodo-vertice (Grafos), en el año 2009 se creó el reto Graph500. Con anterioridad, otros retos como Top500 servían para medir el rendimiento en base a la capacidad de cálculo de los sistemas, mediante tests LINPACK. En caso de Graph500 la medicion se realiza mediante la ejecución de un algoritmo de recorrido en anchura de grafos (BFS en inglés) aplicada a Grafos. El algoritmo BFS es uno de los pilares de otros muchos algoritmos utilizados en grafos como SSSP, shortest path o Betweeness centrality. Una mejora en este ayudaría a la mejora de los otros que lo utilizan. Analisis del Problema El algoritmos BFS utilizado en los sistemas de computación de alto rendimiento (HPC en ingles) es usualmente una version para sistemas distribuidos del algoritmo secuencial original. En esta versión distribuida se inicia la ejecución realizando un particionado del grafo y posteriormente cada uno de los procesadores distribuidos computará una parte y distribuirá sus resultados a los demás sistemas. Debido a que la diferencia de velocidad entre el procesamiento en cada uno de estos nodos y la transfencia de datos por la red de interconexión es muy alta (estando en desventaja la red de interconexion) han sido bastantes las aproximaciones tomadas para reducir la perdida de rendimiento al realizar transferencias. Respecto al particionado inicial del grafo, el enfoque tradicional (llamado 1D-partitioned graph en ingles) consiste en asignar a cada nodo unos vertices fijos que él procesará. Para disminuir el tráfico de datos se propuso otro particionado (2D) en el cual la distribución se haciá en base a las aristas del grafo, en vez de a los vertices. Este particionado reducía el trafico en la red en una proporcion O(NxM) a O(log(N)). Si bien han habido otros enfoques para reducir la transferecnia como: reordemaniento inicial de los vertices para añadir localidad en los nodos, o particionados dinámicos, el enfoque que se va a proponer en este trabajo va a consistir en aplicar técnicas recientes de compression de grandes sistemas de datos como Bases de datos de alto volume o motores de búsqueda en internet para comprimir los datos de las transferencias entre nodos.---ABSTRACT---The Breadth First Search (BFS) algorithm is the foundation and building block of many higher graph-based operations such as spanning trees, shortest paths and betweenness centrality. The importance of this algorithm increases each day due to it is a key requirement for many data structures which are becoming popular nowadays. These data structures turn out to be internally graph structures. When the BFS algorithm is parallelized and the data is distributed into several processors, some research shows a performance limitation introduced by the interconnection network [31]. Hence, improvements on the area of communications may benefit the global performance in this key algorithm. In this work it is presented an alternative compression mechanism. It differs with current existing methods in that it is aware of characteristics of the data which may benefit the compression. Apart from this, we will perform a other test to see how this algorithm (in a dis- tributed scenario) benefits from traditional instruction-based optimizations. Last, we will review the current supercomputing techniques and the related work being done in the area.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La segmentación automática del sistema fluvial con base geomorfológica puede ser una herramienta útil en la restauración de ríos. Tradicionalmente el criterio experto permitía identificar tramos fluviales homogéneos; sin embargo, existen métodos automáticos más objetivos y fiables favorecidos por avances en las técnicas de computación, en las tecnologías de sistemas de información geográfica y en la calidad de la información espacial. Se han aplicado métodos de segmentación automática a respuestas univariantes y multivariantes, basados en técnicas permutacionales y de randomnización multi-respuesta sobre variables geomorfológicas sistemáticamente extraídas con la ayuda de sistemas de información geográfica. Se muestra la utilidad de esta herramienta en distintas fases de un proyecto de restauración, como son: la caracterización del contexto geomorfológico, la diagnosis del efecto de presiones sobre el sistema y la identificación de tramos preferentes para su conservación. Las técnicas descritas se han aplicado al río Porma (Cuenca del Duero, León) regulado desde 1968.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La consolidación de las grandes infraestructuras para la Computación Distribuida ha resultado en una plataforma de Computación de Alta Productividad que está lista para grandes cargas de trabajo. Los mejores exponentes de este proceso son las federaciones grid actuales. Por otro lado, la Computación Cloud promete ser más flexible, utilizable, disponible y simple que la Computación Grid, cubriendo además muchas más necesidades computacionales que las requeridas para llevar a cabo cálculos distribuidos. En cualquier caso, debido al dinamismo y la heterogeneidad presente en grids y clouds, encontrar la asignación ideal de las tareas computacionales en los recursos disponibles es, por definición un problema NP-completo, y sólo se pueden encontrar soluciones subóptimas para estos entornos. Sin embargo, la caracterización de estos recursos en ambos tipos de infraestructuras es deficitaria. Los sistemas de información disponibles no proporcionan datos fiables sobre el estado de los recursos, lo cual no permite la planificación avanzada que necesitan los diferentes tipos de aplicaciones distribuidas. Durante la última década esta cuestión no ha sido resuelta para la Computación Grid y las infraestructuras cloud establecidas recientemente presentan el mismo problema. En este marco, los planificadores (brokers) sólo pueden mejorar la productividad de las ejecuciones largas, pero no proporcionan ninguna estimación de su duración. La planificación compleja ha sido abordada tradicionalmente por otras herramientas como los gestores de flujos de trabajo, los auto-planificadores o los sistemas de gestión de producción pertenecientes a ciertas comunidades de investigación. Sin embargo, el bajo rendimiento obtenido con estos mecanismos de asignación anticipada (early-binding) es notorio. Además, la diversidad en los proveedores cloud, la falta de soporte de herramientas de planificación y de interfaces de programación estandarizadas para distribuir la carga de trabajo, dificultan la portabilidad masiva de aplicaciones legadas a los entornos cloud...

Relevância:

80.00% 80.00%

Publicador:

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Como enfoque global, se ha considerado que en la realización del lenguaje cooperan simultáneamente distintos órganos del cuerpo con sus correspondientes funciones; por tanto, el lenguaje es objeto de análisis desde diversas áreas científicas. Lo que nos ha inducido a abordar en nuestro trabajo algunos detalles significativos de distintos ámbitos de estudio. El objetivo principal ha sido analizar por qué la lectura de las noticias, en los medios audiovisuales, difieren ostensiblemente del lenguaje natural. Esa diferencia es percibida no sólo por la extraña entonación y segmentación errada de unidades fonológicas o sintácticas o por la acentuación impropia de palabras átonas, sino también por las diferentes características en los parámetros de la fonación. Para ello era preciso conocer los más importantes mecanismos del lenguaje espontáneo y, a partir de ese conocimiento, examinar qué elementos sufren alteración o desaparecen en el acto de la lectura con respecto al habla natural. La lectura es un acto en el que no intervienen los mecanismos biológicos innatos del ser humano, habitualmente presentes en el habla. En el habla, el pensamiento genera la palabra. Sin embargo, en la lectura, la palabra está ya escrita y por tanto no hay un proceso simultaneo con el pensamiento. Además, el mensaje que recibe el lector a través del grafismo y de los formatos en que se inscriben, constituye un elemento diferenciador del proceso natural. Los indicadores que recibe el lector son: elemento plano del papel y elemento lineal sin curvas de la escritura; formas que se transmiten instintivamente en la fonación. Y aunque en la lectura intervienen los órganos de fonación, no así otros muchos componentes de la movilidad corporal del habla como los brazos, las manos y los músculos del rostro, que son los que dirigen el sentido de la entonación y del ritmo...

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los deslizamientos de ladera son un problema importante en la región de los valles interandinos de Bolivia. Este estudio analiza la susceptibilidad o predisposición al movimiento de ladera de los municipios de Guanay, Teoponte y Tipuani, situados en el departamento de La Paz, Bolivia. La metodología aplicada es la Analityc Hierarchy/Network Process, o método AHP. Tras su aplicación en un Sistema de Información Geográfica, este método, devuelve valores de susceptibilidad bastante fiables. Las conclusiones que se extraen de este análisis ponen de relieve la necesidad de realizar estudios de detalle en algunas zonas de los tres municipios al haber lugares con una Muy Alta y Alta susceptibilidad al movimiento de ladera, que, además, interfieren con zonas pobladas y con caminos y carreteras principales que son importantes para la articulación social de la región.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La historia clínica electrónica se ha convertido actualmente en el elemento fundamental de los sistemas de documentación clínica. Con el paso de los años se han producido grandes avances en las tecnologías de los sistemas de información electrónica que han mejorado la capacidad de almacenamiento, de procesamiento y de representación de la información clínica. Sin embargo, uno de los principales problemas de registro electrónico sigue siendo mejorar la eficiencia de estos sistemas a la hora de introducir los datos de salud de los pacientes. Este trabajo pretende comparar la eficiencia de estos sistemas en la gestión diaria de una consulta monográfica de Suelo Pélvico en un Servicio de Medicina Física y Rehabilitación...