87 resultados para Modelo de escala local


Relevância:

30.00% 30.00%

Publicador:

Resumo:

- Resumen La hipótesis que anima esta tesis doctoral es que algunas de las características del entorno urbano, en particular las que describen la accesibilidad de su red de espacio público, podrían estar relacionadas con la proporción de viajes a pie o reparto modal, que tiene cada zona o barrio de Madrid. Uno de los puntos de partida de dicha hipótesis que el entorno urbano tiene una mayor influencia sobre los viaje a pie que en sobre otros modos de transporte, por ejemplo que en los viajes de bicicleta o en transporte público; y es que parece razonable suponer que estos últimos van a estar más condicionadas por ejemplo por la disponibilidad de vías ciclistas, en el primer caso, o por la existencia de un servicio fiable y de calidad, en el segundo. Otra de las motivaciones del trabajo es que la investigación en este campo de la accesibilidad del espacio público, en concreto la denominada “Space Syntax”, ha probado en repetidas ocasiones la influencia de la red de espacio público en cómo se distribuye la intensidad del tráfico peatonal por la trama urbana, pero no se han encontrado referencias de la influencia de dicho elemento sobre el reparto modal. De acuerdo con la hipótesis y con otros trabajos anteriores se propone una metodología basada en el análisis empírico y cuantitativo. Su objetivo es comprobar si la red de espacio público, independientemente de otras variables como los usos del suelo, incluso de las variables de ajenas entorno no construido, como las socioeconómicas, está o no relacionada estadísticamente con la proporción de peatones viajes en las zonas urbanas. Las técnicas estadísticas se utilizan para comprobar sistemáticamente la asociación de las variables del entorno urbano, denominadas variables independientes, con el porcentaje de viajes a pie, la variable dependiente. En términos generales, la metodología es similar a la usada en otros trabajos en este campo como los de CERVERÓ y KOCKLEMAN (1997), CERVERÓ y DUNCAN (2003), o para los que se utilizan principalmente en la revisión general de TRB (2005) o, más recientemente, en ZEGRAS (2006) o CHATMAN (2009). Otras opciones metodológicas, como los métodos de preferencias declaradas (ver LOUVIERE, HENSHER y SWAIT, 2000) o el análisis basado en agentes (PENN & TURNER, 2004) fueron descartados, debido a una serie de razones, demasiado extensas para ser descritas aquí. El caso de estudio utilizado es la zona metropolitana de Madrid, abarcándola hasta la M-50, es decir en su mayor parte, con un tamaño aproximado de 31x34 Km y una población de 4.132.820 habitantes (aproximadamente el 80% de la población de la región). Las principales fuentes de datos son la Encuesta Domiciliaria de Movilidad de 2004 (EDM04), del Consorcio Regional de Transportes de Madrid que es la última disponible (muestra: > 35.000 familias,> 95.000 personas), y un modelo espacial del área metropolitana, integrando el modelo para calcular los índices de Space Syntax y un Sistema de Información Geográfica (SIG). La unidad de análisis, en este caso las unidades espaciales, son las zonas de transporte (con una población media de 7.063 personas) y los barrios (con una población media de 26.466 personas). Las variables del entorno urbano son claramente el centro del estudio. Un total de 20 índices (de 21) se seleccionan de entre los más relevantes encontrados en la revisión de la producción científica en este campo siendo que, al mismo tiempo, fueran accesibles. Nueve de ellos se utilizan para describir las características de los usos del suelo, mientras que otros once se usan para describir la red de espacios públicos. Estos últimos incluyen las variables de accesibilidad configuracional, que son, como se desprende de su título, el centro del estudio propuesto. La accesibilidad configuracional es un tipo especial de accesibilidad que se basa en la configuración de la trama urbana, según esta fue definida por HILLIER (1996), el autor de referencia dentro de esta línea de investigación de Space Syntax. Además se incluyen otras variables de la red de espacio público más habituales en los estudios de movilidad, y que aquí se denominan características geométricas de los elementos de la red, tales como su longitud, tipo de intersección, conectividad, etc. Por último se incluye además una variable socioeconómica, es decir ajena al entorno urbano, para evaluar la influencia de los factores externos, pues son varios los que pueden tener un impacto en la decisión de caminar (edad, género, nivel de estudios, ingresos, tasa de motorización, etc.). La asociación entre las variables se han establecido usando análisis de correlación (bivariante) y modelos de análisis multivariante. Las primeras se calculan entre por pares entre cada una de las 21 variables independientes y la dependiente, el porcentaje de viajes a pie. En cuanto a los segundos, se han realizado tres tipos de estudios: modelo multivariante general lineal, modelo multivariante general curvilíneo y análisis discriminante. Todos ellos son capaces de generar modelos de asociación entre diversas variables, pudiéndose de esta manera evaluar con bastante precisión en qué medida cada modelo reproduce el comportamiento de la variable dependiente, y además, el peso o influencia de cada variable en el modelo respecto a las otras. Los resultados fundamentales del estudio se expresan en dos modelos finales alternativos, que demuestran tener una significativa asociación con el porcentaje de viajes a pie (R2 = 0,6789, p <0,0001), al explicar las dos terceras partes de su variabilidad. En ellos, y en general en todo el estudio realizado, se da una influencia constante de tres índices en particular, que quedan como los principales. Dos de ellos, de acuerdo con muchos de los estudios previos, corresponden a la densidad y la mezcla de usos del suelo. Pero lo más novedoso de los resultados obtenidos es que el tercero es una medida de la accesibilidad de la red de espacio público, algo de lo que no había referencias hasta ahora. Pero, ¿cuál es la definición precisa y el peso relativo de cada uno en el modelo, es decir, en la variable independiente? El de mayor peso en la mayor parte de los análisis realizados es el índice de densidad total (n º residentes + n º puestos de trabajo + n º alumnos / Ha). Es decir, una densidad no sólo de población, sino que incluye algunas de las actividades más importantes que pueden darse una zona para generar movilidad a pie. El segundo que mayor peso adquiere, llegando a ser el primero en alguno de los análisis estadísticos efecturados, es el índice de accesibuilidad configuracional denominado integración de radio 5. Se trata de una medida de la accesibilidad de la zona, de su centralidad, a la escala de, más un menor, un distrito o comarca. En cuanto al tercero, obtiene una importancia bastante menor que los anteriores, y es que representa la mezcla de usos. En concreto es una medida del equilibrio entre los comercios especializados de venta al por menor y el número de residentes (n º de tiendas especializadas en alimentación, bebidas y tabaco / n º de habitantes). Por lo tanto, estos resultados confirman buena parte de los de estudios anteriores, especialmente los relativas a los usos del suelo, pero al mismo tiempo, apuntan a que la red de espacio público podría tener una influir mayor de la comprobada hasta ahora en la proporción de peatones sobre el resto de modos de transportes. Las razones de por qué esto puede ser así, se discuten ampliamente en las conclusiones. Finalmente se puede precisar que dicha conclusión principal se refiere a viajes de una sola etapa (no multimodales) que se dan en los barrios y zonas del área metropolitana de Madrid. Por supuesto, esta conclusión tiene en la actualidad, una validez limitada, ya que es el resultado de un solo caso — Abstract The research hypothesis for this Ph.D. Thesis is that some characteristics of the built environment, particularly those describing the accessibility of the public space network, could be associated with the proportion of pedestrians in all trips (modal split), found in the different parts of a city. The underlying idea is that walking trips are more sensitive to built environment than those by other transport modes, such as for example those by bicycle or by public transport, which could be more conditioned by, e.g. infrastructure availability or service frequency and quality. On the other hand, it has to be noted that the previously research on this field, in particular within Space Syntax’s where this study can be referred, have tested similar hypothesis using pedestrian volumes as the dependent variable, but never against modal split. According to such hypothesis, research methodology is based primarily on empirical quantitative analysis, and it is meant to be able to assess whether public space network, no matter other built environment and non-built environment variables, could have a relationship with the proportion of pedestrian trips in urban areas. Statistical techniques are used to check the association of independent variables with the percentage of walking in all trips, the dependent one. Broadly speaking this methodology is similar to that of previous studies in the field such as CERVERO&KOCKLEMAN (1997), CERVERO & DUNCAN (2003), or to those used mainly in the general review of T.R.B. (2005) or, more recently in ZEGRAS (2006) or CHATMAN (2009). Other methodological options such as stated choice methods (see LOUVIERE, HENSHER & SWAIT, 2000) or agent based analysis (PENN & TURNER, 2004), were discarded, due to a number of reasons, too long to be described here. The case study is not the entire Madrid’s metropolitan area, but almost (4.132.820 inhabitants, about 80% of region´s population). Main data sources are the Regional Mobility Home Based Survey 2004 (EDM04), which is the last available (sample: >35.000 families, > 95.000 individuals), and a spatial model of the metropolitan area, developed using Space Syntax and G.I.S. techniques. The analysis unit, in this case spatial units, are both transport zones (mean population = 7.063) and neighborhoods (mean population = 26.466). The variables of the built environment are clearly the core of the study. A total of 20 (out of 21) are selected from among those found in the literature while, at the same time, being accessible. Nine out of them are used to describe land use characteristics while another eleven describe the network of public spaces. Latter ones include configurational accessibility or Space Syntax variables. This is a particular sort of accessibility related with the concept of configuration, by HILLIER (1996), one of the main authors of Space Syntax, But it also include more customary variables used in mobility research to describe the urban design or spatial structure (here public space network), which here are called geometric characteristics of the such as its length, type of intersection, conectivity, density, etc. Finally a single socioeconomic variable was included in order to assess the influence non built environment factors that also may have an impact on walking (age, income, motorization rate, etc.). The association among variables is worked out using bi-variate correlation analysis and multivariate-analysis. Correlations are calculated among the 21 independent variables and the dependent one, the percentage of walking trips. Then, three types of multi-variate studies are run: general linear, curvilinear and discriminant multi-variate analysis. The latter are fully capable of generating complex association models among several variables, assessing quite precisely to what extent each model reproduces the behavior of the dependent variable, and also the weight or influence of each variable in the model. This study’s results show a consistent influence of three particular indexes in the two final alternative models of the multi-variate study (best, R2=0,6789, p<0,0000). Not surprisingly, two of them correspond to density and mix of land uses. But perhaps more interesting is that the third one is a measure of the accessibility of the public space network, a variable less important in the literature up to now. Additional precisions about them and their relative weight could also be of some interest. The density index is not only about population but includes most important activities in an area (nº residents + nº jobs+ nº students/Ha). The configurational index (radius 5 integration) is a measure of the accessibility of the area, i.e. centrality, at the scale of, more a less, a district. Regarding the mix of land uses index, this one is a measure of the balance between retail, in fact local basic retail, and the number of residents (nº of convenience shops / nº of residents). Referring to their weights, configurational index (radius 5 integration) gets the higher standardized coefficient of the final equation. However, in the final equations, there are a higher number of indexes coming from the density or land use mix categories than from public space network enter. Therefore, these findings seem to support part of the field’s knowledge, especially those concerning land uses, but at the same time they seem to bring in the idea that the configuration of the urban grid could have an influence in the proportion of walkers (as a part of total trips on any transport mode) that do single journey trips in the neighborhoods of Madrid, Spain. Of course this conclusion has, at present, a limited validity since it’s the result of a single case. The reasons of why this can be so, are discussed in the last part of the thesis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El propósito del presente Proyecto de Fin de Carrera consiste en la elaboración de un modelo metodológico y cartográfico sobre vulnerabilidad urbana aplicado al caso del entorno histórico-artístico del municipio madrileño de Nuevo Baztán, pero extensible y aplicable a cualquier otro municipio de características similares en cuanto a extensión e historia se refiere. El trabajo consta de dos partes bien diferenciadas: una primera topográfica, mientras que la segunda se centra en el propósito capital de este proyecto, esto es, el estudio de vulnerabilidad urbana. En efecto, la primera fase de este trabajo se centra en la realización de un levantamiento topográfico, cuyo grado de detalle a la hora de dar coordenadas a puntos tendrá como finalidad la obtención de un plano a escala 1/500. Dicho levantamiento se lleva a cabo por medio de una doble poligonal encuadrada, sirviendo como canevás para a continuación efectuar, a partir de ella, una radiación a partir de las mismas, donde se obtienen las coordenadas de la nube de puntos que integrarán este primer objetivo de carácter topográfico, pero sobre todo cartográfico. Obtenida esa base cartográfica a partir de su procesamiento y edición en AutoCAD, se procede a implementar la segunda y principal fase de este Proyecto, el estudio de vulnerabilidad urbana. Este estudio se focaliza en dos aspectos fundamentales: la conservación y grado de deterioro de los materiales que integran el elemento a estudiar, y el grado de adecuación o impacto en el paisaje urbano que tiene dicho elemento digno de estudio. A su vez, los elementos que se proceden a estudiar se clasifican en tres categorías: edificaciones, mobiliario urbano y pavimentación. Con arreglo a esto, se preestablecen las escalas de valoración, y justamente a continuación se implementa el proceso de evaluación en todo el entorno histórico-artístico del municipio. La culminación de este trabajo tiene como objetivo reflejar esa evaluación de vulnerabilidad en la cartografía preexistente. Para ello, se diseñan dos escalas de color, una cromática y otra de intensidad (niveles de gris), reflejando la conservación y la adecuación respectivamente. La combinación de ambas dará como resultado final un plano donde se reflejarán todos los aspectos de la evaluación de forma temática, con diferentes tonalidades e intensidades de colores, dando una idea de la vulnerabilidad urbana, como concepto general, en la totalidad del entorno histórico-artístico de Nuevo Baztán. Como trabajo añadido, se procede a elaborar también una cartografía donde quedan reflejadas las mejores visuales a los elementos arquitectónicos de mayor interés, en el contexto de un itinerario turístico considerado como el más idóneo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Haití, es un país claramente prioritario como receptor de cooperación para el desarrollo. Tras el terremoto del 12 de enero de 2010, se ha desarrollado un Proyecto de Cooperación Interuniversitaria entre la Universidad del Estado de Haití y la Universidad Politécnica de Madrid, financiado por la Agencia Española de Cooperación Internacional para el Desarrollo.El proyecto consiste en la formación y capacitación de los técnicos Haitianos para reconstruir su país. Se está trabajando en la creación de una escala macrosísmica Haitiana, partiendo como base de la Escala Macrosísmica Europea 1998. En este sentido, se hace un análisis exhaustivo de toda la documentación técnica y científica existente hasta la fecha sobre tipos de edificios, clases de vulnerabilidad y grados de daños dependiendo del tipo de edificio. Como caso de estudio se aplica en la ciudad de Puerto Príncipe.En primer lugar se ha clasificado el parque inmobiliario de Puerto Príncipe en diferentes tipologías constructivas, tras un trabajo de campo y teniendo en cuenta las guías de auto-construcción y reparación de edificios publicadas por el Ministerio de Obras Públicas, Transporte y Comunicaciones de Haití. (MTPTC).En el estudio de la vulnerabilidad, además del tipo de estructura de los edificios, se tiene en cuenta la habitabilidad básica que debe tener todo asentamiento humano, analizando no sólo el edificio, sino todo el entorno externo de espacios públicos, infraestructuras, dotaciones y servicios que, en conjunto,conforman el núcleo de cada población y permiten el funcionamiento eficiente del sistema de asentamientos del territorio habitado; pues, en última instancia, dicho territorio construido es el que mejor acota los riesgos ante la vulnerabilidad material y más garantiza la vida saludable de las personas. Los parámetros estudiados son: urbanísticos (anchos de vías, dimensiones de manzanas, trazado, infraestructuras,...), geológicos (estudios del efecto local e identificación de las fallas activas respecto a la edificación) y topográficos (implantación del edificio en zonas llanas, en laderas...). En último lugar, con todos estos datos y los daños registrados en el terremoto de enero de 2010, se hace una escala de intensidades macrosísmica y un plano de ordenación de la vulnerabilidad en Puerto Príncipe, que sirva de base a las autoridades haitianas para la planificación urbanística y la reconstrucción, mitigando de esta manera el riesgo símico. SUMMARY Haiti is a clear priority country as a recipient of development cooperation. After the earthquake of January 12, 2010, an Inter-University Cooperation Project has been developed between the State University of Haiti and the Polytechnic University of Madrid, funded by the Spanish Agency for International Development.The project consists of training and qualifying Haitian technicians to rebuild their country. We are currently working on the creation of a Haitian Macroseismic Scale,based on the European Macroseismic Scale 1998.For the accomplishment of this goal, a comprehensive (deep) analysis is being held, going through all the scientific and technical documentation to date, related to building types, kinds of vulnerability and degrees/ levels of damage depending on the type of building. As a case study, this has been applied to the city of Port-au-Prince.First of all, we have classified the housing typology of Port-au-Prince in different construction types, after carrying on field work in this area and keeping in mind the guidelines for self-construction and repairment of buildings published by the Ministry of Work, Transport and Communications of Haiti. (MTPTC).Regarding the study of vulnerability, besides the type of structure of the buildings, we take into account the basic habitability every human settlement should have, analyzing not only the building, but all the external environment of public spaces,infrastructures, amenities and services, which, as a whole, shape the core of each population and allow the efficient functioning of the settlement system on the inhabited territory. It is this territory,ultimately, the one that better narrows the risks when facing material vulnerability and that better ensures a healthy life for people. The studied parameters are: urban (lane width, block dimensions, layout, infrastructure...), geological (studies focusing on local effects and identification of the active faults in relation to the building) and topographical (implementation of the building on flat areas, slopes...)Finally, with all this data (information) and the registered damages related to the earthquake occurred in 2010, we create a Macroseismic Intensity Scale and a Management Plan of the vulnerability in Port-au-Prince. They will serve as a guideline for Haitians authorities in the urban planning and reconstruction, thus reducing seismic risk.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Artículo de la revista de Estudios Turísticos sobre las transformaciones urbanísticas para mejorar la calidad urbana y la sostenibilidad en busca de una mejora del modelo turístico del municipio

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hoy en día, la gran dependencia de los países industrializados de los combustibles fósiles para cubrir su demanda energética genera anualmente una enorme cantidad de emisiones de gases de efecto invernadero (GEI), provocando unos efectos negativos muy serios para el ser humano y su entorno. Al mismo tiempo, 1400 millones de personas, principalmente habitantes de países en desarrollo, viven sin acceso a la energía moderna, obstaculizando su desarrollo social y económico, y constituyendo una barrera importante para el logro de los Objetivos de Desarrollo del Milenio. Por eso, la energía es uno de los retos más importantes y urgentes a los que se enfrenta el mundo en la actualidad. Por cuestiones de equidad, es necesario extender el acceso a la energía moderna a las poblaciones que carecen de él, pero, si las tecnologías adoptadas para acelerar el acceso a la energía tienen un importante impacto ambiental, se agravarán los problemas ambientales y, en particular, aquellos relacionados con el cambio climático. Las iniciativas basadas en las energías renovables y la eficiencia energética se presentan como una solución con un importante potencial para resolver este desafío. Por un lado, estas tecnologías pueden sustituir a las mayoritariamente utilizadas en los países industrializados, basadas en recursos no renovables y contaminantes, ayudando así a reducir las emisiones de GEI. A su vez, pueden ser la base en la que se fundamenten los modelos energéticos de los países en desarrollo para extender el acceso a la energía a sus poblaciones. Poco a poco, los países llamados desarrollados y aquéllos emergentes han ido incorporando estas tecnologías alternativas dentro de sus matrices energéticas, y se espera que se produzca un aumento de su presencia en los próximos años. Sin embargo, en los países en desarrollo, la introducción de las energías renovables y eficiencia energética ha sido tradicionalmente más complicada. Al mismo tiempo, son cada vez más los estudios y experiencias que han concluido que una energía sostenible y accesible es necesaria para reducir la pobreza, el hambre y la malnutrición, mejorar la salud, incrementar los niveles de alfabetización y educación, y mejorar significativamente la vida de las mujeres y los niños. Por eso, las iniciativas basadas en energías renovables y eficiencia energética cada vez van teniendo con más frecuencia como destinatarios los países más empobrecidos. Gracias a ellas, además de contar con acceso a una energía sostenible y respetuosa con el medio ambiente, las poblaciones gozan de acceso a otros servicios como procesar alimentos y conservarlos por mayores períodos de tiempo, bombear agua, planificar una industria, dar servicio a centros sanitarios, transportar bienes y personas ,tener acceso a medios de comunicación y entretenimiento, etc. Sin embargo, aunque son muchas las mejoras que los proyectos energéticos pueden producir en las condiciones de vida de las comunidades receptoras, la experiencia muestra que existe un número importante de proyectos que no están contribuyendo a generar desarrollo como su potencial hacía esperar. Entre las diferentes razones que pueden explicar este “fracaso”, se encuentra el hecho de que no se han incluido todos los potenciales impactos en el desarrollo humano local desde las etapas de diseño del proyecto, y tampoco se han monitoreado su evolución. Para dar respuesta a esta situación, el presente trabajo desarrolla una metodología flexible, basada en un sistema de principios, criterios e indicadores, que permite diseñar y posteriormente evaluar los impactos que un determinado proyecto de energías renovables y eficiencia energética tiene sobre las condiciones de vida de las comunidades en las que se implementa, de forma que estos impactos puedan ser alcanzados. El trabajo recoge también una serie de casos de estudio en los que se ha aplicado la metodología: ocho proyectos vinculados a energías renovables y/o eficiencia energética situados en Senegal, basados tecnologías y escalas diferentes, implementados por distintos tipos de organismos y enmarcados en contextos diferentes. Esto es una prueba de la capacidad de adaptación y la flexibilidad con la que ha sido diseñada la metodología. La metodología se basa en una batería de indicadores, que contemplan todos los potenciales impactos que los proyectos de Energías Renovables y Eficiencia Energética pueden tener sobre las condiciones de vida de las comunidades donde se implementan. Los indicadores están agrupados por criterios, y éstos, a su vez, en cuatro principios (o dimensiones), los cuales marcan el objetivo y el alcance del modelo: Económico, Social, Ambiental y de Empoderamiento. La evaluación realizada en los ocho proyectos en Senegal ha permitido identificar factores que son determinantes para que los proyectos produzcan o no todas las potenciales contribuciones al desarrollo humano de las poblaciones receptoras. Algunos de los factores de éxito detectados han sido la elección de soluciones energéticas que utilicen tecnologías sencillas, que facilitan la apropiación por parte de la población receptora y las tareas de mantenimiento y la implicación de actores provenientes de diferentes sectores (público, privado y tercer sector), que trabajen en colaboración desde el inicio. Entre los factores de fracaso, se encuentra el hecho de que los procesos de participación y consulta no se han realizado de una forma adecuada, haciendo que los proyectos no respondan a las necesidades de la población local y no se tengan en cuenta las situaciones especificas de algunos grupos vulnerables, como las mujeres. Además, a menudo no se ha producido una verdadera transferencia de tecnología, por la escasa apropiación por parte de la población receptora y tampoco se han hecho estudios de las capacidades y voluntades de pago por los nuevos servicios energéticos, afectando muy negativamente a la sostenibilidad económica de las instalaciones. La metodología de evaluación y los casos de estudio presentados en el trabajo pretenden contribuir a mejorar la contribución de los proyectos de EERR y EE al desarrollo humano, y pueden ser un recurso útil para empresas, ONG y administraciones públicas involucradas en el ámbito de la Energía y en los países en desarrollo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La utilización de simulaciones por ordenador en el campo de la neurociencia, ofrece una mejora radical en el método científico al proporcionar un medio en el que poder probar hipótesis sobre los complejos modelos biológicos. Hay que tener en cuenta que la calidad de las simulaciones es directamente proporcional a la calidad de los datos y a la exactitud en la abstracción matemática de los procesos biológicos. Las sinapsis son los contactos que permiten el intercambio de información entre neuronas. A través de ellas, las neuronas son capaces de formar circuitos que intervienen en las operaciones funcionales específicas de las distintas regiones del cerebro. Por tanto, puede considerarse a la sinapasis como la estructura elemental y la unidad funcional en la construcción de circuitos neuronales. La inmensa mayoría de las sinapsis del cerebro de los vertebrados son sinapsis químicas. En ellas el elemento presináptico es generalmente un terminal axónico, mientras que el elemento postsináptico puede ser un cuerpo neuronal, el segmento inicial del axón, un tronco dendrítico o una espina dendrítica. Las membranas de los elementos pre y postsináptico no entran en contacto, sino que están separadas por un pequeño espacio denominado hendidura sináptica. En una sinapsis química, el elemento presináptico libera una sustancia química, el neurotransmisor, que difunde por la hendidura sináptica y actúa sobre el elemento postsináptico. Desde un punto de vista operacional, una sinapsis convierte un impulso eléctrico que alcanza el elemento presináptico en una señal química, que a su vez provoca un fenómeno eléctrico en el lado postsináptico. Para que esto ocurra, el neurotransmisor liberado debe difundir por la hendidura sináptica e interactuar con receptores específicos presentes en la membrana postsináptica. Dependiendo del tipo de neurotransmisor utilizado y de los receptores implicados la sinapsis podrá ser excitatoria, si se estimula el elemento postsináptico, o inhibitoria si ocurre lo contrario.La transmisión sináptica ocurre a escala submicroscópica, lo que la hace inaccesible a la observación experimental directa. Sin embargo, tanto la difusión del neurotransmisor como su interacción con los receptores sinápticos pueden simularse dado que dependen de parámetros fisico-químicos conocidos. En este trabajo hemos elegido como objeto de estudio una sinapsis glutamatérgica (que usa glutamato como neurotransmisor excitatorio) debido a que es la sinapsis más común en la corteza cerebral. Si bien se conocen las propiedades de los diferentes tipos de receptores de glutamato, se desconoce la influencia que pueda tener en el comportamiento de la sinapsis la geometría de ésta, es decir, su forma y tamaño. Sabemos por estudios de microscopía electrónica que tanto la forma como el tamaño de las sinapsis son muy variables, y es precisamente esta variabilidad la que pretendemos simular, junto con otros parámetros como el número de receptores de neurotransmisor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

“Por lo tanto, la cristalización de polímeros se supone, y en las teorías se describe a menudo, como un proceso de múltiples pasos con muchos aspectos físico-químicos y estructurales influyendo en él. Debido a la propia estructura de la cadena, es fácil entender que un proceso que es termodinámicamente forzado a aumentar su ordenamiento local, se vea obstaculizado geométricamente y, por tanto, no puede conducirse a un estado de equilibrio final. Como resultado, se forman habitualmente estructuras de no equilibrio con diferentes características dependiendo de la temperatura, presión, cizallamiento y otros parámetros físico-químicos del sistema”. Estas palabras, pronunciadas recientemente por el profesor Bernhard Wunderlich, uno de los mas relevantes fisico-quimicos que han abordado en las ultimas décadas el estudio del estado físico de las macromoléculas, adelantan lo que de alguna manera se explicita en esta memoria y constituyen el “leitmotiv” de este trabajo de tesis. El mecanismo de la cristalización de polímeros esta aun bajo debate en la comunidad de la física de polímeros y la mayoría de los abordajes experimentales se explican a través de la teoría LH. Esta teoría clásica debida a Lauritzen y Hoffman (LH), y que es una generalización de la teoría de cristalización de una molécula pequeña desde la fase de vapor, describe satisfactoriamente muchas observaciones experimentales aunque esta lejos de explicar el complejo fenómeno de la cristalización de polímeros. De hecho, la formulación original de esta teoría en el National Bureau of Standards, a comienzos de la década de los 70, sufrió varias reformulaciones importantes a lo largo de la década de los 80, buscando su adaptación a los hallazgos experimentales. Así nació el régimen III de cristalización que posibilita la creacion de nichos moleculares en la superficie y que dio pie al paradigma ofrecido por Sadler y col., para justificar los experimentos que se obtenian por “scattering” de neutrones y otras técnicas como la técnica de “droplets” o enfriamiento rapido. Por encima de todo, el gran éxito de la teoría radica en que explica la dependencia inversa entre el tamaño del plegado molecular y el subenfriamiento, definido este ultimo como el intervalo de temperatura que media entre la temperatura de equilibrio y la temperatura de cristalización. El problema concreto que aborda esta tesis es el estudio de los procesos de ordenamiento de poliolefinas con distinto grado de ramificacion mediante simulaciones numéricas. Los copolimeros estudiados en esta tesis se consideran materiales modelo de gran homogeneidad molecular desde el punto de vista de la distribución de tamaños y de ramificaciones en la cadena polimérica. Se eligieron estas poliolefinas debido al gran interes experimental en conocer el cambio en las propiedades fisicas de los materiales dependiendo del tipo y cantidad de comonomero utilizado. Además, son modelos sobre los que existen una ingente cantidad de información experimental, que es algo que preocupa siempre al crear una realidad virtual como es la simulación. La experiencia en el grupo Biophym es que los resultados de simulación deben de tener siempre un correlato mas o menos próximo experimental y ese argumento se maneja a lo largo de esta memoria. Empíricamente, se conoce muy bien que las propiedades físicas de las poliolefinas, en suma dependen del tipo y de la cantidad de ramificaciones que presenta el material polimérico. Sin embargo, tal como se ha explicado no existen modelos teóricos adecuados que expliquen los mecanismos subyacentes de los efectos de las ramas. La memoria de este trabajo es amplia por la complejidad del tema. Se inicia con una extensa introducción sobre los conceptos básicos de una macromolecula que son relevantes para entender el contenido del resto de la memoria. Se definen los conceptos de macromolecula flexible, distribuciones y momentos, y su comportamiento en disolución y fundido con los correspondientes parametros caracteristicos. Se pone especial énfasis en el concepto de “entanglement” o enmaranamiento por considerarse clave a la hora de tratar macromoléculas con una longitud superior a la longitud critica de enmaranamiento. Finaliza esta introducción con una reseña sobre el estado del arte en la simulación de los procesos de cristalización. En un segundo capitulo del trabajo se expone detalladamente la metodología usada en cada grupo de casos. En el primer capitulo de resultados, se discuten los estudios de simulación en disolución diluida para sistemas lineales y ramificados de cadena única. Este caso mas simple depende claramente del potencial de torsión elegido tal como se discute a lo largo del texto. La formación de los núcleos “babys” propuestos por Muthukumar parece que son consecuencia del potencial de torsión, ya que este facilita los estados de torsión mas estables. Así que se propone el análisis de otros potenciales que son igualmente utilizados y los resultados obtenidos sobre la cristalización, discutidos en consecuencia. Seguidamente, en un segundo capitulo de resultados se estudian moleculas de alcanos de cadena larga lineales y ramificados en un fundido por simulaciones atomisticas como un modelo de polietileno. Los resultados atomisticos pese a ser de gran detalle no logran captar en su totalidad los efectos experimentales que se observan en los fundidos subenfriados en su etapa previa al estado ordenado. Por esta razon se discuten en los capítulos 3 y 4 de resultados sistemas de cadenas cortas y largas utilizando dos modelos de grano grueso (CG-PVA y CG-PE). El modelo CG-PE se desarrollo durante la tesis. El uso de modelos de grano grueso garantiza una mayor eficiencia computacional con respecto a los modelos atomísticos y son suficientes para mostrar los fenómenos a la escala relevante para la cristalización. En todos estos estudios mencionados se sigue la evolución de los procesos de ordenamiento y de fusión en simulaciones de relajación isoterma y no isoterma. Como resultado de los modelos de simulación, se han evaluado distintas propiedades fisicas como la longitud de segmento ordenado, la cristalinidad, temperaturas de fusion/cristalizacion, etc., lo que permite una comparación con los resultados experimentales. Se demuestra claramente que los sistemas ramificados retrasan y dificultan el orden de la cadena polimérica y por tanto, las regiones cristalinas ordenadas decrecen al crecer las ramas. Como una conclusión general parece mostrarse una tendencia a la formación de estructuras localmente ordenadas que crecen como bloques para completar el espacio de cristalización que puede alcanzarse a una temperatura y a una escala de tiempo determinada. Finalmente hay que señalar que los efectos observados, estan en concordancia con otros resultados tanto teoricos/simulacion como experimentales discutidos a lo largo de esta memoria. Su resumen se muestra en un capitulo de conclusiones y líneas futuras de investigación que se abren como consecuencia de esta memoria. Hay que mencionar que el ritmo de investigación se ha acentuado notablemente en el ultimo ano de trabajo, en parte debido a las ventajas notables obtenidas por el uso de la metodología de grano grueso que pese a ser muy importante para esta memoria no repercute fácilmente en trabajos publicables. Todo ello justifica que gran parte de los resultados esten en fase de publicación. Abstract “Polymer crystallization is therefore assumed, and in theories often described, to be a multi step process with many influencing aspects. Because of the chain structure, it is easy to understand that a process which is thermodynamically forced to increase local ordering but is geometrically hindered cannot proceed into a final equilibrium state. As a result, nonequilibrium structures with different characteristics are usually formed, which depend on temperature, pressure, shearing and other parameters”. These words, recently written by Professor Bernhard Wunderlich, one of the most prominent researchers in polymer physics, put somehow in value the "leitmotiv "of this thesis. The crystallization mechanism of polymers is still under debate in the physics community and most of the experimental findings are still explained by invoking the LH theory. This classical theory, which was initially formulated by Lauritzen and Hoffman (LH), is indeed a generalization of the crystallization theory for small molecules from the vapor phase. Even though it describes satisfactorily many experimental observations, it is far from explaining the complex phenomenon of polymer crystallization. This theory was firstly devised in the early 70s at the National Bureau of Standards. It was successively reformulated along the 80s to fit the experimental findings. Thus, the crystallization regime III was introduced into the theory in order to explain the results found in neutron scattering, droplet or quenching experiments. This concept defines the roughness of the crystallization surface leading to the paradigm proposed by Sadler et al. The great success of this theory is the ability to explain the inverse dependence of the molecular folding size on the supercooling, the latter defined as the temperature interval between the equilibrium temperature and the crystallization temperature. The main scope of this thesis is the study of ordering processes in polyolefins with different degree of branching by using computer simulations. The copolymers studied along this work are considered materials of high molecular homogeneity, from the point of view of both size and branching distributions of the polymer chain. These polyolefins were selected due to the great interest to understand their structure– property relationships. It is important to note that there is a vast amount of experimental data concerning these materials, which is essential to create a virtual reality as is the simulation. The Biophym research group has a wide experience in the correlation between simulation data and experimental results, being this idea highly alive along this work. Empirically, it is well-known that the physical properties of the polyolefins depend on the type and amount of branches presented in the polymeric material. However, there are not suitable models to explain the underlying mechanisms associated to branching. This report is extensive due to the complexity of the topic under study. It begins with a general introduction to the basics concepts of macromolecular physics. This chapter is relevant to understand the content of the present document. Some concepts are defined along this section, among others the flexibility of macromolecules, size distributions and moments, and the behavior in solution and melt along with their corresponding characteristic parameters. Special emphasis is placed on the concept of "entanglement" which is a key item when dealing with macromolecules having a molecular size greater than the critical entanglement length. The introduction finishes with a review of the state of art on the simulation of crystallization processes. The second chapter of the thesis describes, in detail, the computational methodology used in each study. In the first results section, we discuss the simulation studies in dilute solution for linear and short chain branched single chain models. The simplest case is clearly dependent on the selected torsion potential as it is discussed throughout the text. For example, the formation of baby nuclei proposed by Mutukhumar seems to result from the effects of the torsion potential. Thus, we propose the analysis of other torsion potentials that are also used by other research groups. The results obtained on crystallization processes are accordingly discussed. Then, in a second results section, we study linear and branched long-chain alkane molecules in a melt by atomistic simulations as a polyethylene-like model. In spite of the great detail given by atomistic simulations, they are not able to fully capture the experimental facts observed in supercooled melts, in particular the pre-ordered states. For this reason, we discuss short and long chains systems using two coarse-grained models (CG-PVA and CG-PE) in section 3 and 4 of chapter 2. The CG-PE model was developed during the thesis. The use of coarse-grained models ensures greater computational efficiency with respect to atomistic models and is enough to show the relevant scale phenomena for crystallization. In all the analysis we follow the evolution of the ordering and melting processes by both isothermal and non isothermal simulations. During this thesis we have obtained different physical properties such as stem length, crystallinity, melting/crystallization temperatures, and so on. We show that branches in the chains cause a delay in the crystallization and hinder the ordering of the polymer chain. Therefore, crystalline regions decrease in size as branching increases. As a general conclusion, it seems that there is a tendency in the macromolecular systems to form ordered structures, which can grown locally as blocks, occupying the crystallization space at a given temperature and time scale. Finally it should be noted that the observed effects are consistent with both, other theoretical/simulation and experimental results. The summary is provided in the conclusions chapter along with future research lines that open as result of this report. It should be mentioned that the research work has speeded up markedly in the last year, in part because of the remarkable benefits obtained by the use of coarse-grained methodology that despite being very important for this thesis work, is not easily publishable by itself. All this justify that most of the results are still in the publication phase.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La aplicación de las estrategias que promuevan la eficiencia energética y la sostenibilidad en el sector de la construcción es una tarea de fundamental importancia que estamos llamados a llevar a cabo como ciudadanos, profesionales e investigadores. Esta tesis doctoral se enmarca dentro de los trabajos de investigación llevados a cabo en los últimos años que, en la línea más general de analizar sistemas a la vez energéticamente eficientes y beneficiosos para la mejora del confort de los usuarios, se han centrado en la caracterización de los efectos sobre edificios y medioambiente derivados de la aplicación de fachadas vegetales en el ámbito arquitectónico. La investigación parte del análisis del papel que las envolventes vegetales han tenido en relación a la arquitectura a lo largo de la Historia, para luego examinar su papel actual que, más allá de su reconocido valor estético, cada vez más cobra una función arquitectónica propia. Prueba de ello es la creciente integración de las superficies vegetales experimentada en los últimos años tanto en entornos arquitectónicos como urbanos; reflejo, a su vez, del desarrollo gradual de nuevas investigaciones sobre fachadas vegetales y de la difusión de diferentes sistemas en el mercado. Tras realizar un análisis detallado de los resultados obtenidos hasta el momento en el campo de la investigación y una vez detectadas sus carencias, se procede a plantear el objetivo general de esta tesis: analizar el comportamiento térmico de una solución constructiva que incorpore un elemento vegetal, a través de la monitorización de un prototipo experimental a escala real, así como, generar una herramienta flexible que permita predecir el comportamiento térmico de determinados tipos de fachadas vegetales, posibilitando su utilización en contextos diferentes al de estudio. Con el fin de elegir el sistema de fachada vegetal más adecuado para el estudio experimental, se realizan un análisis y una catalogación de los sistemas de fachadas vegetales existentes en el mercado. Para cada sistema, se destacan las principales características, las ventajas y los inconvenientes. Para evaluar la aplicabilidad del sistema a gran escala, se fijan unos criterios de selección basados en el grado de industrialización, la eficiencia energética y la sostenibilidad. Finalmente, se elige el sistema más adecuado para el estudio experimental: sistema con elementos modulares industrializados prevegetados compuestos por cajas contenedoras de sustrato y vegetación perenne. Como siguiente paso, se procede al diseño del experimento y se da comienzo a la fase experimental que comprende más de tres años, distinguiéndose dos etapas. En ambas, la experimentación se basa en la comparación de dos cerramientos idénticos cuya única diferencia está constituida por una capa de vegetación existente en uno de ellos. En una primera etapa, a través de un tratamiento estadístico de los datos, se analiza el comportamiento energético de un cerramiento sin aislante con el objetivo de caracterizar térmicamente el elemento vegetal (sustrato más vegetación), eliminado las variables relativas a la composición del cerramiento. En una segunda etapa, se monitoriza un cerramiento con aislante con el fin de verificar la efectividad energética del sistema vegetal en cerramientos aislados. Tras corroborar la eficacia energética de dicho sistema, incluso en cerramientos aislados, se concluye el trabajo con el desarrollo de un modelo de predicción del comportamiento térmico de determinados tipos de fachadas vegetales. El modelo, de rápida y sencilla utilización, permite estimar el comportamiento térmico de una fachada vegetal en función de la temperatura exterior, la humedad relativa del aire en el exterior y la irradiancia global. Dicho modelo, desarrollado a partir de los datos tomados durante la monitorización, ha sido validado experimentalmente mostrando un elevado grado de fiabilidad. ABSTRACT Mettere in atto strategie di promozione dell'e_cienza energetica e della sostenibilità nel settore delle costruzioni è un compito di fondamentale importanza che siamo chiamati a svolgere, come cittadini, professionisti e ricercatori. Questa tesi si colloca all'interno delle ricerche che, nella linea generale di sviluppo di sistemi che siano sia effcienti dal punto di vista energetico sia vantaggiosi dal punto di vista del miglioramento del comfort degli utenti, negli ultimi anni si sono occupate di indagare gli effetti sulle costruzioni e sull'ambiente derivati dall'applicazione di facciate verdi negli edifici. La ricerca si sviluppa partendo dall'analisi del ruolo che coperture e facciate verdi hanno avuto nel corso della storia dell'Architettura per poi giungere ad esaminare il loro ruolo nell'attualit_a: oltre a un roconosciuto valore estetico in maniera crescente queste tecnologie sono chiamate a svolgere una funzione architettonica propria. Ciò è dimostrato dalla crescente integrazione di superfici verdi sia a livello architettonico sia a livello urbano registrata negli ultimi anni, che è a sua volta conseguenza del graduale sviluppo di nuove ricerche sulle facciate verdi e della diffusione nel mercato di differenti sistemi. Dopo aver realizzato un'analisi dettagliata dei risultati ottenuti finora nel campo della ricerca e una volta individuate le loro carenze, si procede a fissare l'obiettivo generale di questa tesi: analizzare il comportamento termico di una soluzione costruttiva che incorpora un elemento di vegetale attraverso il monitoraggio di un prototipo sperimentale in scala reale, così come generare uno strumento essibile che consenta di prevedere il comportamento termico di alcuni tipi di facciate verdi, possibilitando il suo uso in contesti diversi da quello studiato. Al fine di scegliere il sistema di facciata verde pi_u adatto allo studio sperimentale, si effettua un'analisi e una catalogazione dei sistemi attualmente esistenti nel mercato. Per ogni sistema si mettono in evidenza le sue principali caratteristiche, i vantaggi e gli svantaggi, e si fissano criteri di selezione basati sul livello di industrializzazione del sistema, sulla sua efficienza energetica e sulla sostenibilità, con il fine ultimo di promuovere l'applicabilità del sistema a larga scala. Infine, si sceglie il sistema più adeguato per lo studio sperimentale: il sistema industrializzato modulare composto da pannelli prevegetati con substrato e vegetazione perenne. Come passo successivo, si procede allo sviluppo dell'esperimento e si dà inizio alla sperimentazione, composta da due fasi, che si sviluppa durante più di tre anni. In entrambe le fasi, la sperimentazione si basa sul confronto di due serramenti identici la cui unica differenza è costituita dallo strato di vegetazione presente in uno di essi. Nella prima fase, attraverso un trattamento statistico dei dati, si analizza il comportamento energetico di un involucro non isolato per caratterizzare termicamente l'elemento vegetale (vegetazione più substrato), eliminando le variabili relative alla composizione del serramento. Nella seconda fase, si studia un involucro isolato con il fine di verificare l'efficacia energetica del sistema verde in serramenti isolati. Dopo aver dimostrato che il sistema è effciente anche quando applicato in involucri isolati, il lavoro si conclude con lo sviluppo di un modello predittivo del comportamento termico di alcuni tipi di facciate verdi. Il modello, veloce e di semplice utilizzo, permette la stima del comportamento termico di una facciata verde conoscendo la temperatura esterna, l'umidità relativa esterna e l'irradianza globale. Questo modello, sviluppato a partire da dati di monitoraggio, è stato validato sperimentalmente mostrando un elevato grado di precisione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El sistema capitalista ha generado dos de los modelos espaciales de indiferencia funcional más extremos: por un lado, el espacio tecnificado y repetido del edificio de oficinas en altura, encarnado por la ?planta tipo? y, por otro, el espacio diáfano y extenso del gran contendor, que responde a la lógica de lo que llamaremos ?planta única?. En los edificios construidos para la industria automovilística y bélica americana se encuentra el germen de un tipo que servirá de modelo para los nuevos espacios de consumo de bienes y servicios de la ciudad post-industrial. En ella, la identificación del rascacielos con el centro y del contenedor con la periferia sigue vigente, porque la densidad necesaria del primero y la ocupación extensiva del segundo hacen que resulte imposible invertir los términos. Sin embargo, ambos representan el desarrollo estrictamente pragmático de los principios de la ?planta libre? como sistema operativo genérico, dando lugar a construcciones de gran tamaño que ponen a prueba la resistencia a la escala del propio tipo. Tomando como referencia la neutralidad característica de la ?planta única? el texto analiza el comportamiento frente al cambio de tamaño de sus dos configuraciones complementarias: la gran sala hipóstila y la gran sala diáfana.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los proyectos de desarrollo en el medio rural han cambiado en las últimas décadas, desde un enfoque tecnocrático y descendente, que resultó insuficiente, a otro que otorga un papel principal a las personas locales. En este contexto, los nuevos modelos de planificación y gestión de los proyectos de desarrollo a menudo incluyen entre sus objetivos el desarrollo de las capacidades locales y el liderazgo, dedicándose a ellos anualmente billones de dólares. Ambos conceptos son considerados elementos indispensables para aumentar la sostenibilidad de las acciones desde un enfoque endógeno, lo que genera un gran interés tanto desde el ámbito científico como en los debates y objetivos de los organismos internacionales. Sin embargo no existe un consenso sobre el marco conceptual del desarrollo de capacidades ni sobre las metodologías adecuadas para evaluarlo. Por otra parte, en el caso del desarrollo de liderazgo, la mayoría de los estudios e investigaciones se han centrado en entornos empresariales, siendo escasos los trabajos centrados en el ámbito rural. En dicho contexto, la complejidad se incrementa debido a que a menudo la autoridad y poder de los líderes no están dados por puestos formales, sino por relaciones sociales y vínculos de confianza. Esta investigación presenta una primera fase conceptual, que aborda el marco teórico, analizando y clarificando los conceptos de desarrollo de capacidades, competencias y liderazgo en el contexto de los proyectos de desarrollo rural. Así mismo, en esta fase se clasifican los principales instrumentos para evaluar el desarrollo de capacidades, para así definir las variables que conforman el constructo de capacidades. Además se determina la multidimensionalidad del concepto de capacidades y por ello la conveniencia de abordarlo a nivel individual y colectivo. También se analizan los distintos estilos de liderazgo para llegar a una definición propia de desarrollo de capacidades y de liderazgo adaptadas al medio rural. El marco teórico anterior permite sentar, en una segunda fase de la investigación, las bases científicas del modelo que se propone: el modelo DCL de Desarrollo de Capacidades para el Liderazgo en los proyectos de desarrollo rural. Este modelo incorpora elementos del marco conceptual Working With People (Cazorla et al., 2013), fruto de 25 años de experiencia en el ámbito de la planificación de proyectos de desarrollo rural desde el grupo de investigación GESPLAN de la Universidad Politécnica de Madrid. El modelo DCL integra metodologías cuantitativas y cualitativas y una doble escala de análisis para promover y evaluar el desarrollo de capacidades en la población local desde tres componentes: técnico-empresarial, relacional y contextual. Además el modelo DCL incorpora un proceso metodológico para poder integrar el seguimiento y la evaluación de las capacidades a lo largo del ciclo del proyecto. Finalmente, en una fase de aplicación, se acomete la validación del modelo DCL a través del caso de estudio de un proyecto de desarrollo con una organización de mujeres artesanas de comunidades aymaras de Puno (Perú). Este proyecto, que incorpora el marco conceptual WWP, integra 5 años de experiencia con comunidades aymaras desde el grupo de investigación GESPLAN. La aplicación muestra cómo el modelo DCL permite evaluar el desarrollo de capacidades para el liderazgo. Así mismo, la incorporación de los aprendizajes tras las evaluaciones de desarrollo de capacidades permite reorientar las acciones del proyecto para mejorar su planificación y gestión y producir un verdadero empoderamiento y liderazgo de la organización local. Lo anterior se traduce en un aumento de la sostenibilidad del proyecto y de la resiliencia social de la organización. ABSTRACT Development projects in rural areas have changed in recent decades, from a technocratic and top-down approach, which proved insufficient, to another that gives a major role to local people. In this context, the new models of planning and management of development projects often include among their objectives the development of local capacities and leadership and engage billions of dollars annually. Both concepts are considered essential for enhancing the sustainability of the actions from an endogenous approach, generating great interest both from the scientific field and in the debates and objectives of international organizations. However there is no consensus on the conceptual framework of capacity development and on appropriate methodologies to evaluate it. Moreover, in the case of leadership development, most of the studies and research have focused on business environments, with few studies focusing on rural areas. In this context, the complexity is increased because often the authority and power of the leaders are not given for formal positions, but by social relationships and bonds of trust. This research presents an initial conceptual phase, which addresses the theoretical framework, analyzing and clarifying the concepts of capacity development, competencies and leadership in the context of rural development projects. Also, at this stage the main instruments to assess capacity development are classified so as to define the variables that shape the capacity construct. Besides the multidimensionality of the concept of capacity is determined and therefore the convenience of addressing it at an individual and colective level. Different leadership styles are also analyzed to propose a definition of capacity development and leadership adapted to the rural environment. The above theoretical framework allows to set, in a second research phase, the scientific basis of the proposed model: the model DCL of Capacity Development for Leadership in rural development projects. This model incorporates elements of the conceptual framework Working With People (Cazorla et al., 2013), the result of 25 years of experience in the field of project planning for rural development from the research group GESPLAN of the Technical University of Madrid. The DCL model integrates quantitative and qualitative methodologies and a double scale of analysis to promote and evaluate capacity development in the local population from three components: technical-entrepreneurial, relational and contextual. Besides the DCL model incorporates a methodological process to integrate monitoring and evaluation of capacities throughout the project cycle. Finally, in an application phase, DCL model validation is undertaken through the case study of a development project with an organization of women artisans of Aymara communities in Puno (Peru). This project, that incorporates the WWP conceptual framework, integrates 5 years of experience with Aymara communities from GESPLAN research group. The application shows how the DCL model allows to assess the development of capacities for leadership. Also, the incorporation of lessons learned after monitoring and evaluation of capacity development allows to redirect actions to improve project planning and management and produce a true empowerment and leadership of the local organization. This translates into increased project sustainability and social resilience of the organization.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los Ángeles, en California, muestra de forma excepcional la hidrología de las grandes metrópolis en zonas de paisaje árido, basadas en grandes obras de ingeniería civil que concentran en la ciudad el agua de ámbitos geográficos muy extensos mediante aportes elevados de energía, al tiempo que canalizan la evacuación como residuo de los recursos locales. La desertización creciente derivada de este modelo sugiere la necesidad de alternativas de baja energía, basadas en la operatividad de la forma y de los sistemas vivos, para devolver al espacio y al territorio competencias de depuración, almacenaje y control de inundaciones. La construcción del suelo como infraestructura extensiva de captación, filtrado y reutilización modifica el funcionamiento hidrológico de la ciudad, reduciendo deslizamiento y escorrentía para conservar el valioso patrimonio de lluvia local y convierte la fábrica urbana en un gran sistema polivalente de gestión hidráulica. La recuperación de las cuencas locales de menor escala devuelve al agua y sus espacios su papel principal como articuladores de la forma urbana, marcando la localización de áreas húmedas y verdes. La naturaleza urbana se aleja del referente decorativo de pradera inglesa a favor de una concepción más utilitarista, entendida como una máquina orgánica integrada que resuelve la depuración, contribuye a la construcción de suelo y a la climatización a nivel metropolitano.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El crecimiento económico ha producido mejoras en el nivel de vida de la población que muchas veces tienen efectos medioambientales negativos en el largo plazo. Ante esta problemática, surge la necesidad a nivel empresarial de enmarcarse en un modelo de desarrollo sostenible que combine los objetivos de crecimiento económico con los de protección medioambiental. Esta situación puede representar altos costes para las empresas del sector petroquímico venezolano, debido al elevado riesgo de sus operaciones y al conjunto de regulaciones legales vigentes en materia medioambiental. Por lo tanto, el objetivo de la presente investigación ha sido proponer un modelo para la gestión de costes medioambientales de dicho sector fundamentado en la ecoeficiencia. Se planteó una investigación proyectiva, desde un enfoque holístico. Se utilizó un diseño de investigación univariable, transeccional contemporáneo, de fuente mixta. Univariable, porque se enfoca en la gestión de costes medioambientales como único evento a modificar. Transeccional contemporáneo, porque el evento se estudia en la actualidad y la medición de los datos se realiza en un solo momento. De fuente mixta, porque se combinó un diseño documental con un diseño de campo. Se utilizó un diseño documental para el análisis comparativo de las normativas de registro y control de costes medioambientales propuestas por organismos internacionales, mediante la aplicación de una matriz de análisis de categorías emergentes. Para el diagnóstico de la gestión de costes medioambientales en el sector petroquímico venezolano, se utilizó un diseño de campo en las empresas del sector que operan en la región zuliana. Para ello se aplicó un cuestionario con 100 ítems en escala Likert y 6 preguntas de opción múltiple. Dicho cuestionario fue validado mediante la revisión de expertos y se determinó su confiablidad a través del coeficiente alfa de Cronbach. Los resultados muestran que los principales asuntos tratados por las normativas analizadas pueden agruparse en seis temas: alcance de la contabilidad de gestión medioambiental, clasificación, tratamiento contable, asignación, informes de costes medioambientales e indicadores de gestión. Se evidenció que las guías de aplicación de la contabilidad de gestión medioambiental abordan todos los temas identificados pero no hay uniformidad en los criterios asumidos. Por el contrario, las normativas en el ámbito de la contabilidad financiera consideran principalmente los aspectos relacionados con el tratamiento contable de los costes medioambientales y su inclusión en los estados financieros. En cuanto a la gestión de costes medioambientales que realizan las empresas del sector petroquímico venezolano, se evidenció su limitación por la escasa consideración de criterios de ecoeficiencia y la poca aplicación de herramientas de contabilidad de gestión, que dificultan la determinación y el control de costes medioambientales. Tomando como base los resultados obtenidos, se diseñó el modelo de Gestión de Costes Medioambientales Ecoeficiente (GCME). Dicho modelo plantea como deben incorporarse los criterios de ecoeficiencia y las herramientas de contabilidad de gestión medioambiental para la planificación, coordinación y control en la gestión de costes medioambientales. Se plantea que estas etapas deben desarrollarse permanentemente para asegurar la mejora continua del proceso y su adaptación a los cambios tecnológicos y a las regulaciones legales. Se hace énfasis en las directrices que deben seguir las empresas del sector petroquímico venezolano para la aplicación del modelo GCME. Sin embargo, por su generalidad y adaptación a las Normas Internacionales de Contabilidad vigentes en Venezuela, dicho modelo es aplicable a diversos sectores industriales que requieran mejorar su desempeño económico-medioambiental. ABSTRACT Economic growth has led to improvements in the standard of living of the population that often have negative environmental effects over the long term. Faced with this problem, at the enterprise-level, the need to be framed in a sustainable development model that combines the goals of economic growth with environmental protection arises. This situation may represent high costs for the Venezuelan petrochemical companies due to the high risk of their operations and to all the applicable legal regulations on environmental matters. Therefore, this research aims to propose a model for the environmental costs management of these companies based on eco-efficiency. A projective research was performed from a holistic approach. An univariate, contemporary cross-sectional and mixed source research design was used. It is univariate, because it focuses on environmental costs management as the single event to change. It is contemporary cross-sectional, because the event is currently studied and the data measurement is performed in a single moment. It relies on mixed source, because it combines a documentary design with a field design. A documentary design was used for the comparative analysis of the standards of registration and control of environmental costs proposed by international organizations, by applying an analysis matrix of emerging categories. For the diagnosis of the environmental costs management in the Venezuelan petrochemical industry, a field design was applied in the companies that operate in the Zulia region. A questionnaire with 100 items on a Likert scale and 6 multiple-choice questions was used. The questionnaire was validated by peer review and internal consistency reliability was determined using Cronbach's alpha coefficient. The results show that the main issues addressed in the analyzed regulations can be grouped into six themes: scope of environmental management accounting, classification, accounting, allocation, reporting of environmental costs and performance indicators. It was evident that implementation guides of environmental management accounting address all issues identified but there is no uniformity in the assumed criteria. Meanwhile, regulations in the financial accounting field mainly consider aspects related to the accounting treatment of environmental costs and their inclusion in the financial statements. Regarding the environmental costs management performed by Venezuelan petrochemical companies, its limitations were made evident by the low status of eco-efficiency criteria and insufficient application of management accounting tools, which hinder the identification and control of environmental costs. Based on the results, the model of eco-efficient environmental costs management (EECM) was designed. This model indicates how eco-efficiency criteria and tools of environmental management accounting for planning, coordination and control in the environmental costs management should be incorporated. It argues that these stages must be continually developed to ensure a continuous process improvement and its adaptation to technological and legal regulatory changes. The guidelines which the Venezuelan petrochemical companies should follow for the EECM model application have been emphasized. However, due to its generality and adaptation to the International Accounting Standards enforced in Venezuela, this model is applicable to various industries that require an improvement of their economic and environmental performance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo tiene como objetivo diseñar un modelo de gestión de responsabilidad social sustentado en estándares internacionales para las empresas del sector petrolero venezolano. Esta investigación no se suscribe a un modelo epistémico en particular, como forma parcializada de ver la realidad. Por el contrario, se realizó un abordaje holístico de la investigación, entendiendo el evento de estudio, la gestión de la responsabilidad social, como un evento integrado por distintas visiones de la relación empresa – sociedad. La holística se refiere a una tendencia que permite entender la realidad desde el punto de vista de las múltiples interacciones que la caracterizan. Corresponde a una actitud integradora como también a una teoría explicativa que se orienta hacia una comprensión contextual de los procesos, de los protagonistas y de los eventos. Desde la concepción holística se determinó que la investigación es de tipo proyectiva. Este tipo de investigación propone soluciones a una situación determinada a partir de un proceso de indagación. Implica describir, comparar, explicar y proponer alternativas de cambios, lo que da lugar a los estadios de investigación. En cuanto al diseño de la investigación, aplicando el ciclo holístico, se tiene un diseño que es univariable, transeccional contemporáneo y de fuente mixta. Univariable, porque se enfoca en la gestión de responsabilidad social. Transeccional contemporáneo, porque el evento se estudia en la actualidad y se realiza una sola medición de los datos. De fuente mixta, porque en los estadios descriptivo y explicativo se aplica un diseño de campo, al recolectar los datos directamente en las empresas objeto de estudio, mientras que para los estadios analítico y comparativo se aplica un diseño documental. Las técnicas de recolección de la información estuvieron constituidas por fuentes primarias provenientes de la observación directa, la revisión documental y la aplicación de un cuestionario estructurado tipo escala Likert. El análisis de los datos comprendió el análisis estadístico descriptivo, la estimación de la fiabilidad y el análisis de coeficientes de correlación y análisis de ruta, a través del software estadístico SPSS v.19.0 y AMOS v.20. En los estadios descriptivo y explicativo se estudió la gestión de la responsabilidad social en las empresas del sector petrolero. Los resultados indicaron que las empresas del sector petrolero actúan bajo los lineamientos trazados en el Plan de Desarrollo Nacional y de acuerdo con las políticas, directrices, planes y estrategias para el sector de los hidrocarburos, dictadas por el Ministerio de Energía y Petróleo. También incluyen el compromiso social y la política ambiental en su filosofía de gestión. Tienen en su estructura organizacional una gerencia de desarrollo social que gestiona la responsabilidad social. Las actividades de inversión social se presentan poco estructuradas y en ocasiones se improvisan ya que atienden a los lineamientos políticos del Estado y no a una política interna de sostenibilidad del negocio petrolero. En cuanto a la integralidad de la gestión las empresas no consideran la responsabilidad social en todas las áreas, por lo que deben ampliar su concepción de una gestión responsable, redefiniendo estructuras, estrategias y procesos, con una orientación hacia una gestión sustentable. En cuanto a los estadios analítico y comparativo aplicados al estudio de las guías y estándares internacionales de responsabilidad social, se determinó que en términos de la integralidad de la gestión las iniciativas que destacan son: en cuanto a los principios, las directrices para empresas multinacionales según la OCDE y el Libro Verde de la Unión Europea. En relación con las guías de implementación y control, el Global Reporting Initiative y la norma ISO 26000. Y en cuanto a los sistemas de gestión el Sistema de Gestión Ética y Responsable (SGE 21) y el Sistema de Gestión de Responsabilidad Social IQNET SR10. Finalmente se diseñó una estructura para la gestión integral de responsabilidad social basada en los estándares internacionales y en el concepto de desarrollo sostenible. Por tanto abarca el desarrollo social, el equilibrio ecológico y el crecimiento económico, lo que permite un desarrollo sinérgico. La originalidad del enfoque consistió en la comprensión de la investigación desde una concepción holística, que permitió la integración de las teorías que tratan el tema de la responsabilidad social a través de un abordaje estructurado. ABSTRACT The present research aims to design a model of social responsibility management underpinned by international standards for companies in the Venezuelan oil sector. This research is not framed in a particular epistemic model as a biased way of looking at reality. Instead, a holistic approach to the research was conducted, understanding the event under study, the management of social responsibility as an event composed of different views of the relationship between corporation and society. The term holistic refers to a trend in understanding the reality from the point of view of the multiple interactions that characterize it. It corresponds to an integrative as well as an explanatory theory that is oriented towards a contextual understanding of the processes, of the participants and of the events. From the holistic conception it was determined that this research is of a projective type. The research proposes solutions to a given situation from a process of inquiry. It implies describing, comparing, explaining and proposing alternative changes, which results in the different research stages. Regarding the research design, applying the holistic cycle, an univariate, contemporary cross-sectional and mixed source design is obtained. It is univariate, because it focuses on the management of social responsibility. It is contemporary cross-sectional, because the event is studied in the present time and a single measurement of data is performed. It relies on mixed source, because in the descriptive and explanatory stages a field design is applied when collecting data directly from the companies under study, while for the analytical and comparative stages applies a documentary design is applied. The data collection techniques were constituted by primary sources from direct observation, document review and the implementation of a structured Likert scale questionnaire. The data analysis comprised descriptive statistical analysis, reliability estimates and analysis of correlation and the path analysis through the SPSS v.19.0 and AMOS V.20 statistical software. In the descriptive and explanatory stages social responsibility management in the oil sector companies was studied. The results indicated that the oil companies operate under the guidelines outlined in the National Development Plan and in accordance with the policies, guidelines, plans and strategies for the hydrocarbons sector, issued by the Ministry of Energy and Petroleum. They also include the social commitment and the environmental policy in their management philosophy. They have in their organizational structure a social development management which deals with social responsibility. Corporate social investment is presented poorly structured and is sometimes improvised since they follow the policy guidelines of the state and not the internal sustainability policy of the oil business. As for the integrity of management companies they do not consider social responsibility in all areas, so they need to expand their conception of responsible management, redefining structures, strategies and processes, with a focus on sustainable management. As for the analytical and comparative stages applied to the study of international guidelines and standards of social responsibility, it was determined that, in terms of the comprehensiveness of management, the initiatives that stand out are the following: With respect to principles, the guidelines for multinational enterprises as indicated by OECD and the Green Paper of the European Union. Regarding the implementation and control guides, the Global Reporting Initiative and the ISO 26000 standard are relevant. And as for management systems the Ethics and Responsible Management System (SGE 21) and the IQNet SR10 Social responsibility management system have to be considered. Finally a framework for the comprehensive management of social responsibility based on international standards and the concept of sustainable development was designed. Hence, social development, ecological balance and economic growth are included allowing therefore a synergistic development. The originality of this approach is the understanding of research in a holistic way, which allows the integration of theories that address the issue of social responsibility through a structured approximation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo de actividades de carga y descarga son parte de la esencia de la naturaleza funcional de un puerto, de las cuales derivan en gran medida los ingresos del mismo y la eficiencia de la cadena logística en su conjunto. Las oscilaciones en el interior de una dársena y en un línea de atraque disminuyen la calidad de la estancia de las embarcaciones en puerto, reducen el rendimiento de la estiba de los buques y solicitan y fatigan las estructuras y los cuerpos flotantes amarrados. Si los parámetros que definen la agitación local se aproximan a regiones de fallo 0 parada, el subsistema pierde rendimiento, fiabilidad y finalmente se paralizan las operaciones, produciéndose de este modo tiempos de inactividad. Estas paradas operativas conllevan pérdidas económicas para la terminal y, consecuentemente, para el puerto. Hoy día se dispone vastas redes de monitorización destinadas a la caracterización del medio físico en el entorno de los puertos. Paralelamente, las operaciones de manipulación de cargas en las terminales se están dirigiendo hacia modelos de automatización o semi automatización, que permiten no sólo la sistematización de procesos, sino también un profundo conocimiento del flujo de tareas. En este contexto hay un déficit de información sobre cómo afectan los diferentes forzadores del medio físico al rendimiento, la seguridad funcionalidad del proceso de manipulación de carga y descarga. Esto se debe en gran medida a la falta de registros dilatados en el tiempo que permitan correlacionar todos los aspectos mencionados de un modo particularizado para cada línea de atraque y amarre de un puerto. En esta tesis se desarrolla una metodología dedeo monitorización no intrusiva y de bajo coste basada en la aplicación de técnicas "pixel tool' y la obtención de los parámetros extrínsecos de una observación monofocal. Con ello pretende poner en valor las infraestructuras dedeo vigilancia de los puertos y de los laboratorios de experimentación a escala reducida, con el objeto de facilitar el estudio los umbrales operativos de las áreas de atraque y amarre. The development of loading and unloading activities is an essential part of he functional nature of a port, which derive largely from he same income and the efficiency of he supply chain as a whole. The oscillations inside a dock and a mooring line diminish he quality of the stay of vessels in port reducing the performance of the stowage of ship and asking and fatigued structures and moored floating bodies. If the parameters defining the local al agitation regions are close to areas of failure or shutdown, he subsystem looses performance, reliability and eventually paralyzes the operations, thereby producing downtime. These operational stops entail economic 1osses to the terminal and, consequently for the port. Today vast networks of monitoring, aimed at he characterization of the physical environment in the vicinity of he ports, are available. In parallel, the cargo handling operations at terminals are moving towards automation or semi-automation models that allow not only the systematization of processes, but also a deep understanding of he workflow. In this context, there is a lack of information about how the different forcing agents of the physical environment affect the performance and he functional safety of the loading and unloading process. This is due largely to the lack of spread-over-time records which would allow to correlate all aspects mentioned, specifically, for each berthing and mooring of a port. This thesis develops a methodology for non-intrusive and low cost monitoring video based on the application of "pixel tool" techniques and on obtaining the extrinsic parameters of a monofocal observation. It seeks an enhancement of the video monitoring infrastructure at ports and at experimental laboratories of reduced scale, in order to facilitate the study of operational thresholds berthing and mooring areas.