80 resultados para Venta a plazos
em Universidad Politécnica de Madrid
Resumo:
El objeto del presente Proyecto es definir las reparaciones necesarias en el puente situado en el P.K. 507+435 de la línea Venta de Baños - Santander, subsanando aquellas singularidades detectadas en las estructuras que supongan mermas en la seguridad estructural, así como en la durabilidad y funcionalidad de todos los elementos que constituyen la estructura, de modo que la obra quede en las mejores condiciones posibles. Es importante destacar que esta estructura fue proyectada para unas condiciones de explotación muy diferentes a las actuales (cargas, intensidad de tráfico, etc.). Además, tras una larga vida útil, su estado actual (materiales, configuración estructural, incluso geometría) puede haber cambiado notablemente con relación al inicial. Todo esto hace imprescindible realizar una evaluación estructural del puente teniendo muy en cuenta su estado actual.
Resumo:
En este documento se presenta el plan de marketing realizado para una empresa de venta online de productos para bebés y padres. Partiendo de una reflexión de qué quiere ser la empresa (Visión, Misión y Valores), y siguiendo la metodología “Go to Market”, detallada a continuación, se realiza un trabajo de estudio de situación, cubriendo todas las fases de dicha metodología, que culmina en un plan de acción que detalla un conjunto de iniciativas cuyo fin último es la mejora operativa de la empresa, y el aumento de ingresos y rentabilidad. ---ABSTRACT---In this document it’s presented the marketing plan done for an online company selling products for babies and parents. Starting with a consideration of what the company wants to be (Vision, Mission and Values), and following “Go to market” methodology, explained below, a status analysis is performed, covering all the stages of the methodology, culminating in an action plan detailing a set of initiatives whose ultimate goal is the operational improvement of the company, and increasing its revenues and profitability.
Resumo:
Proyecto de las labores que deben emprenderse en la mina de galena "El Principio" del término de La Carolina (Jaén) adquirida por la Compañía Vascongada de Minería, para llegar a una producción anual de 180.000 toneladas de mineral preparados para la venta
Resumo:
En este Proyecto Fin de Carrera se va a llevar a cabo el desarrollo e implementación de un portal web orientado a la compra venta de vehículos industriales, mediante el uso de la metodología John December. A lo largo del proyecto, se expondrá porqué es necesario el uso de metodologías y el motivo de haber seleccionado John December de entre las diferentes metodologías existentes en la actualidad. Una vez definido el uso de la metodología, pasaremos a desarrollar cada una de las fases de las que se compone aplicándolas de una manera práctica sobre nuestro portal. Dentro de estas fases detallaremos qué herramientas se han usado para llevarlas a cabo, ya que December no provee herramientas como tal. Así mismo, dentro del proceso de llevar a cabo el proyecto, se incluirá algún elemento más no definido dentro de la metodología, como los Casos de Prueba ya que se han considerado necesarios para llegar correctamente a los objetivos planteados. Finalmente, expondremos las conclusiones extraídas del desarrollo llevado a cabo. Summary This Proyecto Final de Carrera will carry out the development and implementation of a web portal oriented to purchase and sale of industrial vehicles, using the methodology John December. Throughout the project, it will expose that is necessary the use of methodologies and the reason for having selected John December from the different methodologies that exists currently. Once the use of the methodology would be defined, we will pass to develop each of the phases that it is composed by applying each in a practical way to our website. Within these phases, we will detail that tools have been used to carry them out, since December does not provide tools as such. Likewise, within the process of carrying out this project, will include some element that are not defined within the methodology, as Test Cases since they have been considered necessary to properly reach to the projected objectives. Finally, we will show the conclusions extracted from the development carried out.
Resumo:
Una de las principales líneas de investigación de la economía urbana es el comportamiento del mercado inmobiliario y sus relaciones con la estructura territorial. Dentro de este contexto, la reflexión sobre el significado del valor urbano, y abordar su variabilidad, constituye un tema de especial importancia, dada la relevancia que ha supuesto y supone la actividad inmobiliaria en España. El presente estudio ha planteado como principal objetivo la identificación de aquellos factores, ligados a la localización que explican la formación del valor inmobiliario y justifican su variabilidad. Definir este proceso precisa de una evaluación a escala territorial estableciendo aquellos factores de carácter socioeconómico, medioambiental y urbanístico que estructuran el desarrollo urbano, condicionan la demanda de inmuebles y, por tanto, los procesos de formación de su valor. El análisis se centra en valores inmobiliarios residenciales localizados en áreas litorales donde la presión del sector turístico ha impulsado un amplio. Para ello, el ámbito territorial seleccionado como objeto de estudio se sitúa en la costa mediterránea española, al sur de la provincia de Alicante, la comarca de la Vega Baja del Segura. La zona, con una amplia diversidad ecológica y paisajística, ha mantenido históricamente una clara distinción entre espacio urbano y espacio rural. Esta dicotomía ha cambiado drásticamente en las últimas décadas, experimentándose un fuerte crecimiento demográfico y económico ligado a los sectores turístico e inmobiliario, aspectos que han tenido un claro reflejo en los valores inmobiliarios. Este desarrollo de la comarca es un claro ejemplo de la política expansionista de los mercados de suelo que ha tenido lugar en la costa española en las dos últimas décadas y que derivado en la regeneración de un amplio tejido suburbano. El conocimiento del marco territorial ha posibilitado realizar un análisis de variabilidad espacial mediante un tratamiento masivo de datos, así como un análisis econométrico que determina los factores que se valoran positivamente y negativamente por el potencial comprador. Estas relaciones permiten establecer diferentes estructuras matemáticas basadas en los modelos de precios hedónicos, que permiten identificar rasgos diferenciales en los ámbitos económico, social y espacial y su incidencia en el valor inmobiliario. También se ha sistematizado un proceso de valoración territorial a través del análisis del concepto de vulnerabilidad estructural, entendido como una situación de fragilidad debida a circunstancias tanto sociales como económicas, tanto actual como de tendencia en el futuro. Actualmente, esta estructura de demanda de segunda residencia y servicios ha mostrado su fragilidad y ha bloqueado el desarrollo económico de la zona al caer drásticamente la inversión en el sector inmobiliario por la crisis global de la deuda. El proceso se ha agravado al existir un tejido industrial marginal al que no se ha derivado inversiones importantes y un abandono progresivo de las explotaciones agropecuarias. El modelo turístico no sería en sí mismo la causa del bloqueo del desarrollo económico comarcal, sino la forma en que se ha implantado en la Costa Blanca, con un consumo del territorio basado en el corto plazo, poco respetuoso con aspectos paisajísticos y medioambientales, y sin una organización territorial global. Se observa cómo la vinculación entre índices de vulnerabilidad y valor inmobiliario no es especialmente significativa, lo que denota que las tendencias futuras de fragilidad no han sido incorporadas a la hora de establecer los precios de venta del producto inmobiliario analizado. El valor muestra una clara dependencia del sistema de asentamiento y conservación de las áreas medioambientales y un claro reconocimiento de tipologías propias del medio rural aunque vinculadas al sector turístico. En la actualidad, el continuo descenso de la demanda turística ha provocado una clara modificación en la estructura poblacional y económica. Al incorporar estas modificaciones a los modelos especificados podemos comprobar un verdadero desmoronamiento de los valores. Es posible que el remanente de vivienda construida actualmente vaya dirigido a un potencial comprador que se encuentra en retroceso y que se vincula a unos rasgos territoriales ya no existentes. Encontrar soluciones adaptables a la oferta existente, implica la viabilidad de renovación del sistema poblacional o modificaciones a nivel económico. La búsqueda de respuestas a estas cuestiones señala la necesidad de recanalizar el desarrollo, sin obviar la potencialidad del ámbito. SUMMARY One of the main lines of research regarding the urban economy focuses on the behavior of the real estate market and its relationship to territorial structure. Within this context, one of the most important themes involves considering the significance of urban property value and dealing with its variability, particularly given the significant role of the real estate market in Spain, both in the past and present. The main objective of this study is to identify those factors linked to location, which explain the formation of property values and justify their variability. Defining this process requires carrying out an evaluation on a territorial scale, establishing the socioeconomic, environmental and urban planning factors that constitute urban development and influence the demand for housing, thereby defining the processes by which their value is established. The analysis targets residential real estate values in coastal areas where pressure from the tourism industry has prompted large-scale transformations. Therefore, the focal point of this study is an area known as Vega Baja del Segura, which is located on the Spanish Mediterranean coast in southern Alicante (province). Characterized by its scenic and ecological diversity, this area has historically maintained a clear distinction between urban and rural spaces. This dichotomy has drastically changed in past decades due to the large increase in population attributed to the tourism and real estate markets – factors which have had a direct effect on property values. The development of this area provides a clear example of the expansionary policies which have affected the housing market on the coast of Spain during the past two decades, resulting in a large increase in suburban development. Understanding the territorial framework has made it possible to carry out a spatial variability analysis through massive data processing, as well as an econometric analysis that determines the factors that are evaluated positively and negatively by potential buyers. These relationships enable us to establish different mathematical systems based on hedonic pricing models that facilitate the identification of differential features in the economic, social and spatial spheres, and their impact on property values. Additionally, a process for land valuation was established through an analysis of the concept of structural vulnerability, which is understood to be a fragile situation resulting from either social or economic circumstances. Currently, this demand structure for second homes and services has demonstrated its fragility and has inhibited the area’s economic development as a result of the drastic fall in investment in the real estate market, due to the global debt crisis. This process has been worsened by the existence of a marginal industrial base into which no important investments have been channeled, combined with the progressive abandonment of agricultural and fishing operations. In and of itself, the tourism model did not inhibit the area’s economic development, rather it is the result of the manner in which it was implemented on the Costa Brava, with a land consumption based on the short-term, lacking respect for landscape and environmental aspects and without a comprehensive organization of the territory. It is clear that the link between vulnerability indexes and property values is not particularly significant, thereby indicating that future fragility trends have not been incorporated into the problem in terms of establishing the sale prices of the analyzed real estate product in question. Urban property values are clearly dependent on the system of development and environmental conservation, as well as on a clear recognition of the typologies that characterize rural areas, even those linked to the tourism industry. Today, the continued drop in tourism demand has provoked an obvious modification in the populational and economic structures. By incorporating these changes into the specified models, we can confirm a real collapse in values. It’s possible that the surplus of already-built homes is currently being marketed to a potential buyer who is in recession and linked to certain territorial characteristics that no longer exist. Finding solutions that can be adapted to the existing offer implies the viability of renewing the population system or carrying out modifications on an economic level. The search for answers to these questions suggests the need to reform the development model, without leaving out an area’s potentiality.
Resumo:
El siguiente trabajo consiste en formar y estructurar una cooperativa agrícola en una Zona de Reserva muy cercana a la segunda ciudad más grande de Honduras (San Pedro Sula). Debido a los precios tan bajos que reciben los agricultores por la venta de productos en la ciudad, todo ello provocado entre otros factores por la independencia entre productores y la poca fuerza que pueden ejercer en el mercado, se crea la necesidad de actuar en conjunto. Para ello se forma la cooperativa COME (Cooperativa del Merendón) solo a 30 km de San Pedro Sula. Para realizar el proyecto se hicieron grupos de trabajo entre agricultores, entrevistas, visitas a sus parcelas, visitas a otras cooperativas y reuniones en la municipalidad, compras en los mercados locales y entrevistas en cuatro supermercados de la ciudad. Se ha diseñado la estrategia de la cooperativa, incluida la marca y logotipo, la política de ventas y las necesidades de producción. El presupuesto es de cien mil euros y el volumen de negocio de algo más de 125.000 euros anuales. Además de conseguir trabajo para las 32 familias involucradas se generaría empleo para 18 personas.
Resumo:
Las necesidades en lisina (Lys) de cerdos de altos crecimientos sacrificados para venta en fresco han sido estudiadas en detalle (NRC, 1998; BSAS, 2003; Fedna, 2006). Sin embargo, las necesidades de cerdos destinados a la obtención de productos curados, en los que se precisa obtener canales con porcentajes de grasa óptimos, han sido poco estudiadas (Beaulie et al., 2009). A ello hay que sumarle que en los últimos años la genética se ha centrado en mejorar la eficiencia alimenticia, lo que en muchos casos penaliza el contenido graso de las partes nobles (Blanchard et al., 1999; Latorre et al., 2003). Conocer las necesidades en Lys de cerdos de alta producción es clave; un déficit de Lys conlleva un menor crecimiento mientras que el exceso es caro. Por ello, el objetivo de este estudio fue estudiar el efecto del nivel de inclusión de Lys sobre los rendimientos productivos en cerdos de alta selección sacrificados a 113 kg destinados a la producción de productos curados.
Resumo:
Las empresas explotadoras de yacimientos de petróleo y geotérmicos diseñan y construyen sus instalaciones optimizándolas según dos características especialmente representativas: su temperatura y su presión. Por ello, tener información precisa sobre ambos aspectos lo antes posible puede permitir ahorros importantes en las inversiones en infraestructuras y también acortar los plazos de comienzo de explotación; ambos, aspectos esenciales en la rentabilidad del yacimiento. La temperatura estática de una formación es la temperatura existente antes del inicio de las tareas de perforación del yacimiento. Las operaciones de perforación tienen como objetivo perforar, evaluar y terminar un pozo para que produzca de una forma rentable. Durante estas tareas se perturba térmicamente la formación debido a la duración de la perforación, la circulación de fluidos de refrigeración, la diferencia de temperaturas entre la formación y el fluido que perfora, el radio, la difusividad térmica de las formaciones y la tecnología de perforación [7]. La principal herramienta para determinar la temperatura estática de formación son las medidas de temperaturas en los pozos. Estas medidas de temperatura se realizan una vez cesados los trabajos de perforación y circulación de fluidos. El conjunto de medidas de temperatura obtenidas es una serie de valores ascendentes, pero no llega a alcanzar el valor de la temperatura estática de la formación. Para estimar esta temperatura se plantean las ecuaciones diferenciales que describen los fenómenos de transmisión de calor en el yacimiento [14]. Estos métodos se emplean tanto en yacimientos geotérmicos como en yacimientos de petróleo indistintamente [16]. Cada uno de ellos modela el problema de transmisión de calor asociado de una forma distinta, con hipótesis simplificadoras distintas. Se ha comprobado que la aplicación de los distintos métodos a un yacimiento en concreto presenta discrepancias en cuanto a los resultados obtenidos [2,16]. En muchos de los yacimientos no se dispone de información sobre los datos necesarios para aplicar el método de estimación. Esto obliga a adoptar una serie de hipótesis que comprometen la precisión final del método utilizado. Además, puede ocurrir que el método elegido no sea el que mejor reproduce el comportamiento del yacimiento. En el presente trabajo se han analizado los distintos métodos de cálculo. De la gran variedad de métodos existentes [9] se han seleccionado los cuatro más representativos [2,7]: Horner (HM), flujo radial y esférico (SRM), de las dos medidas (TLM) y de fuente de calor cilíndrica (CSM). Estos métodos se han aplicado a una serie de yacimientos de los cuales se conoce la temperatura estática de la formación. De cada yacimiento se disponía de datos tanto de medidas como de las propiedades termo-físicas. Estos datos, en ocasiones, eran insuficientes para la aplicación de todos los métodos, lo cual obligo a adoptar hipótesis sobre los mismos. Esto ha permitido evaluar la precisión de cada método en cada caso. A partir de los resultados obtenidos se han formulado una colección de criterios que permiten seleccionar qué método se adapta mejor para el caso de un yacimiento concreto, de tal manera que el resultado final sea lo más preciso posible. Estos criterios se han fijado en función de las propiedades termo-físicas del yacimiento, que determinan el tipo de yacimiento, y del grado de conocimiento que se dispone del yacimiento objeto de estudio.
Resumo:
En la situación actual, tanto las posibilidades de contratar como los resultados económicos de un astillero, dependen de su capacidad para construir un buque en el plazo mas corto posible. Dentro de los trabajos de diseño y construcción de de un buque el trabajo de tuberías ha sido el que tradicionalmente ha condicionado los plazos de construcción. En este estudio se considerara que se han tenido en cuenta los criterios necesarios para que las instalaciones del buque funcionen correctamente y se verá como los sistemas de diseño influyen en el coste y plazo del buque y, por tanto, en la productividad del astillero. Se estudian los distintos procesos de diseño, fabricación y montaje de tuberías, la evolución de estos procesos a lo largo del tiempo, los módulos de armamento que se realizan en los astilleros, los modelos de cámara de máquinas, y los sistemas de ayuda al diseño por ordenador. El autor, en su puesto de Jefe de la Oficina Tecnológica de la Factoría de Sevilla de Astilleros Españoles en los últimos 12 años, ha tomado parte activa en esta evolución, formando parte de un equipo que ha situado a este astillero entre los mas avanzarlos de Europa. Todo lo anterior sirve de base para la segunda parte de este estudio, donde se abordan las que, en opinión del autor, son las nuevas tendencias en el diseño de tuberías en la construcción naval. V Integración del CAD/CAM o CIM : CAD = computer aided design o diseño asistido por ordenador, CAM = computer aided manufacturing o fabricación asistida por ordenador, CIM = computer integrated manufacturing o fabricación integrada por ordenador. Se estudia la integración de los procesos de diseño con el resto de los procesos de gestión y de producción de un astillero, proponiéndose un modelo de cómo el autor ve esta integración. Se comenta la actual tendencia a pasar de las automatizaciones duras con maquinas especializadas para cada proceso, a las automatizaciones blandas en las que un robot puede realizar distintos procesos modificando su programación. Se estudian las nuevas posibilidades de la normal i zacio'n, de los planos parametrizados y de la tecnología de grupos aportando algunos ejemplos. Se estudia también como los procesos anteriores conducirán a una optimización del producto en sí, es decir a conseguir mejores buques. En las conclusiones destacamos como el camino que tienen los países desarrollados, como el nuestro, para mantener una industria competitiva de construcción naval va por la mecanización de los procesos constructivos siguiendo las tendencias anteriores y obteniendo buques optimizados. vi SUMMARY Under the present situation the possibilities to contract and the economical results of a Shipyard depend on its capacity to build a ship within the shortest time. i Within the works of design and construction of a ship, piping work has traditionally conditioned the construction time. In this study it shall be considered that the necessary criteria for the ship installations to operate correctly have been taken into account and it shall be noticed how the design systems influence on the cost and time of a ship and therefore on the Shipyard's productivity. Studies are made of different design processes, manufacturing and installation of piping, evolution of these processes along the time, outfitting modules made in the Shipyard, engine room models and computerized design aid systems. The author, in his post of Chief of the Technological Office of Sevilla Shipyard of Astilleros Españoles for the last 12 years, has taken an active part in this evolution, making part of a team which has placed this Shipyard among the most advanced in Europe. All of the above is used for the second part of this study, whereby an approach is made to those who, in the author's opinion, are the new trends in the piping design of shipbuilding. vii Integration of CAD/CAM or CIM: CAD = computer aided design, CAM = computer aided manufacturing, CIM = computer integrated manufacturing. i A study is made of the integration of design processes with the remaining step and production Shipyard processes, proposing a model of how the author views this integration. Comments are made on the present trend to go from hard automations with specialized machines for each process to soft automations, in which a robot can carry out different processes modifying its programmes. Studies are made of: New possibility of standardization, parametrized drawings and group technology, bringing some examples. It is also studied how the above processes shall lead to optimize the product itself, that is, to obtain better ships. In the conclusions we stand out how the way of developed countries (as ours) to maintain a competitive shipbuilding industry is by computerizing constructive processes, following the above trends and obtaining better ships.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
Energy management has always been recognized as a challenge in mobile systems, especially in modern OS-based mobile systems where multi-functioning are widely supported. Nowadays, it is common for a mobile system user to run multiple applications simultaneously while having a target battery lifetime in mind for a specific application. Traditional OS-level power management (PM) policies make their best effort to save energy under performance constraint, but fail to guarantee a target lifetime, leaving the painful trading off between the total performance of applications and the target lifetime to the user itself. This thesis provides a new way to deal with the problem. It is advocated that a strong energy-aware PM scheme should first guarantee a user-specified battery lifetime to a target application by restricting the average power of those less important applications, and in addition to that, maximize the total performance of applications without harming the lifetime guarantee. As a support, energy, instead of CPU or transmission bandwidth, should be globally managed as the first-class resource by the OS. As the first-stage work of a complete PM scheme, this thesis presents the energy-based fair queuing scheduling, a novel class of energy-aware scheduling algorithms which, in combination with a mechanism of battery discharge rate restricting, systematically manage energy as the first-class resource with the objective of guaranteeing a user-specified battery lifetime for a target application in OS-based mobile systems. Energy-based fair queuing is a cross-application of the traditional fair queuing in the energy management domain. It assigns a power share to each task, and manages energy by proportionally serving energy to tasks according to their assigned power shares. The proportional energy use establishes proportional share of the system power among tasks, which guarantees a minimum power for each task and thus, avoids energy starvation on any task. Energy-based fair queuing treats all tasks equally as one type and supports periodical time-sensitive tasks by allocating each of them a share of system power that is adequate to meet the highest energy demand in all periods. However, an overly conservative power share is usually required to guarantee the meeting of all time constraints. To provide more effective and flexible support for various types of time-sensitive tasks in general purpose operating systems, an extra real-time friendly mechanism is introduced to combine priority-based scheduling into the energy-based fair queuing. Since a method is available to control the maximum time one time-sensitive task can run with priority, the power control and time-constraint meeting can be flexibly traded off. A SystemC-based test-bench is designed to assess the algorithms. Simulation results show the success of the energy-based fair queuing in achieving proportional energy use, time-constraint meeting, and a proper trading off between them. La gestión de energía en los sistema móviles está considerada hoy en día como un reto fundamental, notándose, especialmente, en aquellos terminales que utilizando un sistema operativo implementan múltiples funciones. Es común en los sistemas móviles actuales ejecutar simultaneamente diferentes aplicaciones y tener, para una de ellas, un objetivo de tiempo de uso de la batería. Tradicionalmente, las políticas de gestión de consumo de potencia de los sistemas operativos hacen lo que está en sus manos para ahorrar energía y satisfacer sus requisitos de prestaciones, pero no son capaces de proporcionar un objetivo de tiempo de utilización del sistema, dejando al usuario la difícil tarea de buscar un compromiso entre prestaciones y tiempo de utilización del sistema. Esta tesis, como contribución, proporciona una nueva manera de afrontar el problema. En ella se establece que un esquema de gestión de consumo de energía debería, en primer lugar, garantizar, para una aplicación dada, un tiempo mínimo de utilización de la batería que estuviera especificado por el usuario, restringiendo la potencia media consumida por las aplicaciones que se puedan considerar menos importantes y, en segundo lugar, maximizar las prestaciones globales sin comprometer la garantía de utilización de la batería. Como soporte de lo anterior, la energía, en lugar del tiempo de CPU o el ancho de banda, debería gestionarse globalmente por el sistema operativo como recurso de primera clase. Como primera fase en el desarrollo completo de un esquema de gestión de consumo, esta tesis presenta un algoritmo de planificación de encolado equitativo (fair queueing) basado en el consumo de energía, es decir, una nueva clase de algoritmos de planificación que, en combinación con mecanismos que restrinjan la tasa de descarga de una batería, gestionen de forma sistemática la energía como recurso de primera clase, con el objetivo de garantizar, para una aplicación dada, un tiempo de uso de la batería, definido por el usuario, en sistemas móviles empotrados. El encolado equitativo de energía es una extensión al dominio de la energía del encolado equitativo tradicional. Esta clase de algoritmos asigna una reserva de potencia a cada tarea y gestiona la energía sirviéndola de manera proporcional a su reserva. Este uso proporcional de la energía garantiza que cada tarea reciba una porción de potencia y evita que haya tareas que se vean privadas de recibir energía por otras con un comportamiento más ambicioso. Esta clase de algoritmos trata a todas las tareas por igual y puede planificar tareas periódicas en tiempo real asignando a cada una de ellas una reserva de potencia que es adecuada para proporcionar la mayor de las cantidades de energía demandadas por período. Sin embargo, es posible demostrar que sólo se consigue cumplir con los requisitos impuestos por todos los plazos temporales con reservas de potencia extremadamente conservadoras. En esta tesis, para proporcionar un soporte más flexible y eficiente para diferentes tipos de tareas de tiempo real junto con el resto de tareas, se combina un mecanismo de planificación basado en prioridades con el encolado equitativo basado en energía. En esta clase de algoritmos, gracias al método introducido, que controla el tiempo que se ejecuta con prioridad una tarea de tiempo real, se puede establecer un compromiso entre el cumplimiento de los requisitos de tiempo real y el consumo de potencia. Para evaluar los algoritmos, se ha diseñado en SystemC un banco de pruebas. Los resultados muestran que el algoritmo de encolado equitativo basado en el consumo de energía consigue el balance entre el uso proporcional a la energía reservada y el cumplimiento de los requisitos de tiempo real.
Resumo:
Se describe en profundidad el proceso de formación de precios de los productos pesqueros frescos. Se identifican los factores críticos para un proceso muy común (venta de la pescadilla en España). Se inventarían todos los factores que inciden en la formación del precio. Se estudia el proceso de comercialización pesquera, el papel de todos los actores y el futuro al que se enfrenta cada agente. España es uno de los principales mercados pesqueros del mundo, el segundo en volumen de capturas de la UE (20%) y el cuarto en consumo per-cápita del mundo, sólo superado por Japón, Estados Unidos y Portugal. La comercialización de los productos pesqueros frescos es un proceso muy complejo debido a las características del producto (vida muy corta, manipulación delicada, heterogeneidad), al gran número de agentes y flujos que intervienen o a la inestabilidad de la oferta asociada a la actividad. La formación del precio del pescado es una materia de la que se dispone de muy poca información y transparencia. Se desconoce su mecanismo tanto para expertos como para profanos del sector y externos a él. Es un proceso complejo muy poco estudiado sujeto a multitud de tópicos y realidades consumadas. Desde diversas instituciones académicas y organizaciones sectoriales se han encargado y realizado algunas iniciativas destinadas a investigar la formación del precio en puntos concretos del flujo, con una visión parcial del proceso y sus dependencias. El trabajo presentado en esta Tesis da un paso más y pretende encontrar y explicar todos los factores que intervienen en la formación del precio del pescado fresco, considerando el proceso completo, y determina las variables críticas que tienen un mayor impacto en este proceso. Para eso se estudia el proceso de comercialización de los productos pesqueros frescos extremo a extremo, desde la captura hasta la venta final al público, desde el sector extractivo al minorista, a través de las principales asociaciones y agentes del Sector y de la observación presencial del trabajo de todos los agentes que intervienen en el proceso en distintos puntos de España. Además se repasa el estado actual del Sector pesquero y comercializador en España, identificando aspectos clave de mejora en todos los ámbitos. Se describe detalladamente el proceso completo de comercialización pesquera a través de los actores que intervienen en él, enfocados hacia la identificación de todos los factores de todos los tipos que inciden en el proceso de formación de precios y la descripción de puntos débiles y problemas del Sector pesquero en conjunto. Se repasa el marco teórico general del proceso de formación de precios y se explican las particularidades existentes para el pescado fresco. Todos los factores identificados se caracterizaron con una serie de atributos que ayudan a describir mejor el proceso. A través de una herramienta informática y de los datos de un caso completo real se analizan todas las variables y se identifican las críticas que explican la formacióndel precio. Se llega a una ecuación que modeliza este fenómeno complejo a través de estos factores. En el mapa actual de la comercialización de productos pesqueros en España la gran distribución ha ganado una gran cuota de mercado, debido a los cambios sociales y a las necesidades del nuevo consumidor. El rol y las actividades de los distintos operadores van a cambiar en los próximos años para adaptarse a esta evolución del proceso. Por último se presentan una serie de conclusiones generales, asociadas al proceso de comercialización, a las estructuras de oferta, demanda, precios y se resumen los resultados obtenidos a través del proceso de identificación de variables críticas realizado. Se proporcionan los aspectos clave asociados a los problemas de la industria extractiva, y se proponen sugerencias de mejora para incrementar la competitividad del sector en todos los eslabones y mejorar el proceso comercializador.
Resumo:
En los últimos quince años se ha producido una liberalización de los mercados eléctricos en los distintos países de ámbito occidental que ha ido acompañado de un incremento por la preocupación por la incidencia de las distintas tecnologías de generación en el entorno medioambiental. Ello se ha traducido en la aparición de un marco regulatorio más restrictivo sobre las tecnologías de generación fósiles, con mayor incidencia en las derivadas de productos petrolíferos y carbón. A nivel mundial han ido apareciendo cambios normativos relativos a las emisiones de distintos elementos contaminantes (CO2, SO2, NOx…), que hacen que en particular las centrales térmicas de carbón vean muy afectadas su rentabilidad y funcionamiento. Esta situación ha supuesto que la tecnología de generación eléctrica con carbón haya avanzado considerablemente en los últimos años (calderas supercríticas, sistemas de desulfuración, gasificación del carbón…). No obstante, el desarrollo de la generación con energías renovables, la generación con gas mediante centrales de ciclo combinado y la opinión social relativa a la generación con carbón, principalmente en Europa, suponen un serio obstáculo a la generación con carbón. Por consiguiente, se hace necesario buscar vías para optimizar la competitividad de las centrales de carbón y el camino más razonable es mejorar el margen esperado de estas plantas y en particular el coste de adquisición del carbón. Ello se hace aún más importante por el hecho de existir numerosas centrales de carbón y un elevado número de nuevos proyectos constructivos de centrales de carbón en países asiáticos. Por consiguiente, el objeto de la presente tesis doctoral se centra en definir una metodología para optimizar la compra de carbón, desde el punto de vista económico y técnico, con destino a su consumo en una central térmica, con ello reducir el coste del carbón consumido y mejorar su competitividad. También se enfoca a determinar que herramientas pueden ser utilizadas para optimizar la gestión del carbón después de su compra y con ello abrir la posibilidad de obtener márgenes adicionales para dicho carbón. De acuerdo con este objetivo, el autor de la presente Tesis Doctoral realiza tres aportaciones novedosas en el ámbito de la contratación de carbón térmico y su optimización posterior: - Evaluación de carbones para su adquisición considerando el efecto de la calidad del carbón en el coste de generación asociado a cada carbón ofertado. - Creación, desarrollo, implantación y utilización de una potente herramienta de planificación de Combustibles. Esta herramienta, está diseñada con el objeto de determinar la solución económica óptima de aprovisionamientos, consumos y niveles de existencias para un parque de generación con centrales de carbón y fuelóleo. - La extensión de una metodología contractual habitual en el mercado spot de Gas Natural Licuado, a la contratación spot de Carbón de Importación. Esta se basa en el desarrollo de Acuerdos Marcos de Compra/Venta de carbón, que por su flexibilidad permitan obtener resultados económicos adicionales después de la compra de un carbón. Abstract In the last fifteen years, a liberalization of the electrical markets has occurred in the western countries. This process has been accompanied by an increasing concern of the impact of the different generation technologies towards the environment. This has motivated a regulated framework restricting the use of fossil fuels, impacting a great deal in coal and oil based products. Worldwide, new legal changes have been arising related to the emissions of the different pollutants (CO2, SO2, NOx…). These changes have had a deep impact in the feasibility, profit and running of coal fired power plants. This situation has motivated the coal electrical generation technologies to move forward in an important way in the last few years (supercritical furnaces, desulphuration plants, coal gasification…). Nevertheless, the development of the renewable generation, the gas combined cycle generation and the social opinion related to the coal electrical generation, mainly in Europe, have created a serious obstacle to the generation of electricity by coal. Therefore it is necessary to look for new paths in order to optimize the competitiveness of the coal fired power plants and the most reasonable way is to improve the expected margin of these plants and particularly the coal purchase cost. All of the above needs to be taken into context with the large number of existing coal fired power plants and an important number of new projects in Asian countries. Therefore, the goal of the current doctoral dissertation is focused to define a methodology to be considered in order to optimize the coal purchase, from an economical and a technical point of view. This coal, destined for power plant consumption, permits the reduction of consumption coal cost and improves the plant’s competitiveness. This document is also focused to define what tools we can use to optimize the coal management after deal closing and therefore open the possibility to get further margins. According to this goal, the author of this doctoral dissertation provides three important new ideas in the ambit of contracting steam coal and the posterior optimization: - Evaluation of coal purchases, considering the effect of coal quality on the cost of generation associated with each type of coal offered. - The creation, development, deployment and use of a strong planning tool of fuels. This tool is designed for the purpose of determining the optimal economic solution of fuel supply, consumption and stock levels for a power generation portfolio using coal and fuel oil fired power plants. - The application of a common contractual methodology in the spot market of Liquid Natural Gas, for the contracting spot imported coal. This is based on the development of Framework Agreements for the Purchasing / Sale of coal, which because of its flexibility allows for the gain of additional financial results after the purchase of coal.
Resumo:
Las Tecnologías de la Información y la Comunicación en general e Internet en particular han supuesto una revolución en nuestra forma de comunicarnos, relacionarnos, producir, comprar y vender acortando tiempo y distancias entre proveedores y consumidores. A la paulatina penetración del ordenador, los teléfonos inteligentes y la banda ancha fija y/o móvil ha seguido un mayor uso de estas tecnologías entre ciudadanos y empresas. El comercio electrónico empresa–consumidor (B2C) alcanzó en 2010 en España un volumen de 9.114 millones de euros, con un incremento del 17,4% respecto al dato registrado en 2009. Este crecimiento se ha producido por distintos hechos: un incremento en el porcentaje de internautas hasta el 65,1% en 2010 de los cuales han adquirido productos o servicios a través de la Red un 43,1% –1,6 puntos porcentuales más respecto a 2010–. Por otra parte, el gasto medio por comprador ha ascendido a 831€ en 2010, lo que supone un incremento del 10,9% respecto al año anterior. Si segmentamos a los compradores según por su experiencia anterior de compra podemos encontrar dos categorías: el comprador novel –que adquirió por primera vez productos o servicios en 2010– y el comprador constante –aquel que había adquirido productos o servicios en 2010 y al menos una vez en años anteriores–. El 85,8% de los compradores se pueden considerar como compradores constantes: habían comprado en la Red en 2010, pero también lo habían hecho anteriormente. El comprador novel tiene un perfil sociodemográfico de persona joven de entre 15–24 años, con estudios secundarios, de clase social media y media–baja, estudiante no universitario, residente en poblaciones pequeñas y sigue utilizando fórmulas de pago como el contra–reembolso (23,9%). Su gasto medio anual ascendió en 2010 a 449€. El comprador constante, o comprador que ya había comprado en Internet anteriormente, tiene un perfil demográfico distinto: estudios superiores, clase alta, trabajador y residente en grandes ciudades, con un comportamiento maduro en la compra electrónica dada su mayor experiencia –utiliza con mayor intensidad canales exclusivos en Internet que no disponen de tienda presencial–. Su gasto medio duplica al observado en compradores noveles (con una media de 930€ anuales). Por tanto, los compradores constantes suponen una mayoría de los compradores con un gasto medio que dobla al comprador que ha adoptado el medio recientemente. Por consiguiente es de interés estudiar los factores que predicen que un internauta vuelva a adquirir un producto o servicio en la Red. La respuesta a esta pregunta no se ha revelado sencilla. En España, la mayoría de productos y servicios aún se adquieren de manera presencial, con una baja incidencia de las ventas a distancia como la teletienda, la venta por catálogo o la venta a través de Internet. Para dar respuesta a las preguntas planteadas se ha investigado desde distintos puntos de vista: se comenzará con un estudio descriptivo desde el punto de vista de la demanda que trata de caracterizar la situación del comercio electrónico B2C en España, poniendo el foco en las diferencias entre los compradores constantes y los nuevos compradores. Posteriormente, la investigación de modelos de adopción y continuidad en el uso de las tecnologías y de los factores que inciden en dicha continuidad –con especial interés en el comercio electrónico B2C–, permiten afrontar el problema desde la perspectiva de las ecuaciones estructurales pudiendo también extraer conclusiones de tipo práctico. Este trabajo sigue una estructura clásica de investigación científica: en el capítulo 1 se introduce el tema de investigación, continuando con una descripción del estado de situación del comercio electrónico B2C en España utilizando fuentes oficiales (capítulo 2). Posteriormente se desarrolla el marco teórico y el estado del arte de modelos de adopción y de utilización de las tecnologías (capítulo 3) y de los factores principales que inciden en la adopción y continuidad en el uso de las tecnologías (capítulo 4). El capítulo 5 desarrolla las hipótesis de la investigación y plantea los modelos teóricos. Las técnicas estadísticas a utilizar se describen en el capítulo 6, donde también se analizan los resultados empíricos sobre los modelos desarrollados en el capítulo 5. El capítulo 7 expone las principales conclusiones de la investigación, sus limitaciones y propone nuevas líneas de investigación. La primera parte corresponde al capítulo 1, que introduce la investigación justificándola desde un punto de vista teórico y práctico. También se realiza una breve introducción a la teoría del comportamiento del consumidor desde una perspectiva clásica. Se presentan los principales modelos de adopción y se introducen los modelos de continuidad de utilización que se estudiarán más detalladamente en el capítulo 3. En este capítulo se desarrollan los objetivos principales y los objetivos secundarios, se propone el mapa mental de la investigación y se planifican en un cronograma los principales hitos del trabajo. La segunda parte corresponde a los capítulos dos, tres y cuatro. En el capítulo 2 se describe el comercio electrónico B2C en España utilizando fuentes secundarias. Se aborda un diagnóstico del sector de comercio electrónico y su estado de madurez en España. Posteriormente, se analizan las diferencias entre los compradores constantes, principal interés de este trabajo, frente a los compradores noveles, destacando las diferencias de perfiles y usos. Para los dos segmentos se estudian aspectos como el lugar de acceso a la compra, la frecuencia de compra, los medios de pago utilizados o las actitudes hacia la compra. El capítulo 3 comienza desarrollando los principales conceptos sobre la teoría del comportamiento del consumidor, para continuar estudiando los principales modelos de adopción de tecnología existentes, analizando con especial atención su aplicación en comercio electrónico. Posteriormente se analizan los modelos de continuidad en el uso de tecnologías (Teoría de la Confirmación de Expectativas; Teoría de la Justicia), con especial atención de nuevo a su aplicación en el comercio electrónico. Una vez estudiados los principales modelos de adopción y continuidad en el uso de tecnologías, el capítulo 4 analiza los principales factores que se utilizan en los modelos: calidad, valor, factores basados en la confirmación de expectativas –satisfacción, utilidad percibida– y factores específicos en situaciones especiales –por ejemplo, tras una queja– como pueden ser la justicia, las emociones o la confianza. La tercera parte –que corresponde al capítulo 5– desarrolla el diseño de la investigación y la selección muestral de los modelos. En la primera parte del capítulo se enuncian las hipótesis –que van desde lo general a lo particular, utilizando los factores específicos analizados en el capítulo 4– para su posterior estudio y validación en el capítulo 6 utilizando las técnicas estadísticas apropiadas. A partir de las hipótesis, y de los modelos y factores estudiados en los capítulos 3 y 4, se definen y vertebran dos modelos teóricos originales que den respuesta a los retos de investigación planteados en el capítulo 1. En la segunda parte del capítulo se diseña el trabajo empírico de investigación definiendo los siguientes aspectos: alcance geográfico–temporal, tipología de la investigación, carácter y ambiente de la investigación, fuentes primarias y secundarias utilizadas, técnicas de recolección de datos, instrumentos de medida utilizados y características de la muestra utilizada. Los resultados del trabajo de investigación constituyen la cuarta parte de la investigación y se desarrollan en el capítulo 6, que comienza analizando las técnicas estadísticas basadas en Modelos de Ecuaciones Estructurales. Se plantean dos alternativas, modelos confirmatorios correspondientes a Métodos Basados en Covarianzas (MBC) y modelos predictivos. De forma razonada se eligen las técnicas predictivas dada la naturaleza exploratoria de la investigación planteada. La segunda parte del capítulo 6 desarrolla el análisis de los resultados de los modelos de medida y modelos estructurales construidos con indicadores formativos y reflectivos y definidos en el capítulo 4. Para ello se validan, sucesivamente, los modelos de medida y los modelos estructurales teniendo en cuenta los valores umbrales de los parámetros estadísticos necesarios para la validación. La quinta parte corresponde al capítulo 7, que desarrolla las conclusiones basándose en los resultados del capítulo 6, analizando los resultados desde el punto de vista de las aportaciones teóricas y prácticas, obteniendo conclusiones para la gestión de las empresas. A continuación, se describen las limitaciones de la investigación y se proponen nuevas líneas de estudio sobre distintos temas que han ido surgiendo a lo largo del trabajo. Finalmente, la bibliografía recoge todas las referencias utilizadas a lo largo de este trabajo. Palabras clave: comprador constante, modelos de continuidad de uso, continuidad en el uso de tecnologías, comercio electrónico, B2C, adopción de tecnologías, modelos de adopción tecnológica, TAM, TPB, IDT, UTAUT, ECT, intención de continuidad, satisfacción, confianza percibida, justicia, emociones, confirmación de expectativas, calidad, valor, PLS. ABSTRACT Information and Communication Technologies in general, but more specifically those related to the Internet in particular, have changed the way in which we communicate, relate to one another, produce, and buy and sell products, reducing the time and shortening the distance between suppliers and consumers. The steady breakthrough of computers, Smartphones and landline and/or wireless broadband has been greatly reflected in its large scale use by both individuals and businesses. Business–to–consumer (B2C) e–commerce reached a volume of 9,114 million Euros in Spain in 2010, representing a 17.4% increase with respect to the figure in 2009. This growth is due in part to two different facts: an increase in the percentage of web users to 65.1% en 2010, 43.1% of whom have acquired products or services through the Internet– which constitutes 1.6 percentage points higher than 2010. On the other hand, the average spending by individual buyers rose to 831€ en 2010, constituting a 10.9% increase with respect to the previous year. If we select buyers according to whether or not they have previously made some type of purchase, we can divide them into two categories: the novice buyer–who first made online purchases in 2010– and the experienced buyer: who also made purchases in 2010, but had done so previously as well. The socio–demographic profile of the novice buyer is that of a young person between 15–24 years of age, with secondary studies, middle to lower–middle class, and a non–university educated student who resides in smaller towns and continues to use payment methods such as cash on delivery (23.9%). In 2010, their average purchase grew to 449€. The more experienced buyer, or someone who has previously made purchases online, has a different demographic profile: highly educated, upper class, resident and worker in larger cities, who exercises a mature behavior when making online purchases due to their experience– this type of buyer frequently uses exclusive channels on the Internet that don’t have an actual store. His or her average purchase doubles that of the novice buyer (with an average purchase of 930€ annually.) That said, the experienced buyers constitute the majority of buyers with an average purchase that doubles that of novice buyers. It is therefore of interest to study the factors that help to predict whether or not a web user will buy another product or use another service on the Internet. The answer to this question has proven not to be so simple. In Spain, the majority of goods and services are still bought in person, with a low amount of purchases being made through means such as the Home Shopping Network, through catalogues or Internet sales. To answer the questions that have been posed here, an investigation has been conducted which takes into consideration various viewpoints: it will begin with a descriptive study from the perspective of the supply and demand that characterizes the B2C e–commerce situation in Spain, focusing on the differences between experienced buyers and novice buyers. Subsequently, there will be an investigation concerning the technology acceptance and continuity of use of models as well as the factors that have an effect on their continuity of use –with a special focus on B2C electronic commerce–, which allows for a theoretic approach to the problem from the perspective of the structural equations being able to reach practical conclusions. This investigation follows the classic structure for a scientific investigation: the subject of the investigation is introduced (Chapter 1), then the state of the B2C e–commerce in Spain is described citing official sources of information (Chapter 2), the theoretical framework and state of the art of technology acceptance and continuity models are developed further (Chapter 3) and the main factors that affect their acceptance and continuity (Chapter 4). Chapter 5 explains the hypothesis behind the investigation and poses the theoretical models that will be confirmed or rejected partially or completely. In Chapter 6, the technical statistics that will be used are described briefly as well as an analysis of the empirical results of the models put forth in Chapter 5. Chapter 7 explains the main conclusions of the investigation, its limitations and proposes new projects. First part of the project, chapter 1, introduces the investigation, justifying it from a theoretical and practical point of view. It is also a brief introduction to the theory of consumer behavior from a standard perspective. Technology acceptance models are presented and then continuity and repurchase models are introduced, which are studied more in depth in Chapter 3. In this chapter, both the main and the secondary objectives are developed through a mind map and a timetable which highlights the milestones of the project. The second part of the project corresponds to Chapters Two, Three and Four. Chapter 2 describes the B2C e–commerce in Spain from the perspective of its demand, citing secondary official sources. A diagnosis concerning the e–commerce sector and the status of its maturity in Spain is taken on, as well as the barriers and alternative methods of e–commerce. Subsequently, the differences between experienced buyers, which are of particular interest to this project, and novice buyers are analyzed, highlighting the differences between their profiles and their main transactions. In order to study both groups, aspects such as the place of purchase, frequency with which online purchases are made, payment methods used and the attitudes of the purchasers concerning making online purchases are taken into consideration. Chapter 3 begins by developing the main concepts concerning consumer behavior theory in order to continue the study of the main existing acceptance models (among others, TPB, TAM, IDT, UTAUT and other models derived from them) – paying special attention to their application in e–commerce–. Subsequently, the models of technology reuse are analyzed (CDT, ECT; Theory of Justice), focusing again specifically on their application in e–commerce. Once the main technology acceptance and reuse models have been studied, Chapter 4 analyzes the main factors that are used in these models: quality, value, factors based on the contradiction of expectations/failure to meet expectations– satisfaction, perceived usefulness– and specific factors pertaining to special situations– for example, after receiving a complaint justice, emotions or confidence. The third part– which appears in Chapter 5– develops the plan for the investigation and the sample selection for the models that have been designed. In the first section of the Chapter, the hypothesis is presented– beginning with general ideas and then becoming more specific, using the detailed factors that were analyzed in Chapter 4– for its later study and validation in Chapter 6– as well as the corresponding statistical factors. Based on the hypothesis and the models and factors that were studied in Chapters 3 and 4, two original theoretical models are defined and organized in order to answer the questions posed in Chapter 1. In the second part of the Chapter, the empirical investigation is designed, defining the following aspects: geographic–temporal scope, type of investigation, nature and setting of the investigation, primary and secondary sources used, data gathering methods, instruments according to the extent of their use and characteristics of the sample used. The results of the project constitute the fourth part of the investigation and are developed in Chapter 6, which begins analyzing the statistical techniques that are based on the Models of Structural Equations. Two alternatives are put forth: confirmatory models which correspond to Methods Based on Covariance (MBC) and predictive models– Methods Based on Components–. In a well–reasoned manner, the predictive techniques are chosen given the explorative nature of the investigation. The second part of Chapter 6 explains the results of the analysis of the measurement models and structural models built by the formative and reflective indicators defined in Chapter 4. In order to do so, the measurement models and the structural models are validated one by one, while keeping in mind the threshold values of the necessary statistic parameters for their validation. The fifth part corresponds to Chapter 7 which explains the conclusions of the study, basing them on the results found in Chapter 6 and analyzing them from the perspective of the theoretical and practical contributions, and consequently obtaining conclusions for business management. The limitations of the investigation are then described and new research lines about various topics that came up during the project are proposed. Lastly, all of the references that were used during the project are listed in a final bibliography. Key Words: constant buyer, repurchase models, continuity of use of technology, e–commerce, B2C, technology acceptance, technology acceptance models, TAM, TPB, IDT, UTAUT, ECT, intention of repurchase, satisfaction, perceived trust/confidence, justice, feelings, the contradiction of expectations, quality, value, PLS.
Resumo:
Es en el campo de los recursos naturales y su aplicación a la industria, el entorno donde se desarrolla esta Tesis. El objetivo de la misma es demostrar cómo la minería del hierro puede resultar una actividad sostenible, logrando continuar de esta manera la estrecha relación de siempre entre las necesidades del hombre y la pervivencia de los recursos naturales. Es en la minería del hierro donde hace mayor énfasis este trabajo, dando lugar a un nuevo Indicador Sostenible que intenta evaluar las explotaciones de mineral de hierro desde una visión sostenible, empleando el consumo energético y las emisiones de CO2 como principales herramientas. Como se observa en el día a día, el tema de la sostenibilidad es de plena actualidad, lográndose en este trabajo implicar, tanto a la eficiencia energética, como al control de emisiones de gases efecto invernadero; ambas herramientas cobran más importancia cada día que pasa. La Tesis se desarrolla en 5 capítulos, aparte de su bibliografía correspondiente. En el primer capítulo se introduce el sentido de la sostenibilidad, desde sus inicios conceptuales, hasta sus actuales clasificaciones y definiciones empleadas; todo ello desde el punto de vista de los recursos naturales, y más habitualmente desde la minería. Resulta llamativo el contraste de opiniones, en lo que se ha dado a llamar la paradoja de la minería sostenible, quedando tras su lectura, la posición de la minería en una situación, si no ventajosa, si de equilibrio en importancia entre las necesidades a cubrir y el agotamiento de recursos. El segundo capítulo nos muestra el entorno donde se va a conducir la Tesis. El marco que engloba este trabajo se extiende desde la extracción del mineral de hierro (minería), su tratamiento y concentración (mineralurgia), su venta a los hornos altos (mercados) hasta su posterior fabricación en acero terminado (siderurgia). En este capítulo se presentan los principales actores que entrarán en el sector de la minería del hierro (productores y fabricantes) incluyendo una serie de datos estadísticos de gran interés para el desarrollo de la Tesis. El tercer capítulo se refiere al proceso completo que precisa la actividad sobre la que se va a evaluar la sostenibilidad. Es donde se definen, paso a paso, y obteniendo todos los datos de consumos energéticos y emisiones de CO2, las diferentes etapas por las que pasa el mineral de hierro, hasta encontrarse laminado en la acería. Es aquí donde se analizan los diversos tipos de yacimientos de hierro dispersos por el mundo y el mineral extraído, de manera que las propiedades aprendidas se puedan emplear más adelante en un indicador, y que así diferencie la sostenibilidad en función de los orígenes motivo de las necesidades energéticas para su transformación. El capítulo 4 consta de dos bloques: el uso de las herramientas de medida de la sostenibilidad, a día de hoy en el mundo industrial, y de una manera pormenorizada, el consumo energético y sus emisiones medioambientales como herramienta de gestión ambiental para la minería del hierro. Esta herramienta resultará básica para el cálculo del indicador buscado para la medida de la sostenibilidad. El capítulo 5 constituye el núcleo de la tesis, y supone el desarrollo del indicador, la metodología de uso y las conclusiones obtenidas. A través de varios ejemplos se logra entender la aplicación del indicador, dando lugar a una clasificación sostenible sencilla y práctica, situando en orden las diferentes explotaciones en función de un nivel de sostenibilidad determinado. Este último capítulo da origen al Indicador Sostenible Energético buscado, mostrándose en todo su esplendor y descubriendo cómo la relación ponderada entre el consumo energético y sus emisiones de CO2 permite, a través de una valoración, mostrar todos los parámetros de relevancia para el mineral de hierro y su posterior transformación en acero. Esa cifra obtenida por el indicador, clasificará la explotación teniendo en cuenta, el tipo de yacimiento, características del mineral (especie mineralógica, tipo de mineral, ley del mineral en hierro, tipo de ganga, características físicas como dureza o tamaño de grano, susceptibilidad magnética, etc.), situación geográfica, infraestructuras, etc. Sin profundizar en la siderurgia, por lo menos sí incluir los principales parámetros (relacionados siempre desde el mineral) que pudieran tener influencia en la disminución de energía requerida (y sus emisiones de CO2 relacionadas): la reducibilidad, el contenido en hierro, y mencionar la influencia del SiO2. Se completa la Tesis con las referencias bibliográficas y documentales, así como con una bibliografía general. ABSTRACT This Thesis is set in a context of natural resources and applied science. The aim of this document is to prove that iron mining is a sustainable activity, so the ancient relationship between men and natural resources will continue. Iron mining is the main subject of this work, so a new sustainable indicator is created in order to evaluate the iron mining from a sustainable point of view. The main tools applied are energy consumption and CO2 emissions. In this research document two relevant issues are involved: energy efficiency and GHGs control; both tools gain significance by the day. This thesis develops along 5 chapters and its bibliography. The first chapter refers to the concept of sustainability, from the beginning to the current definitions and classifications; all this information is focused from the natural resources point of view, especially mining. The contrast of opinion is remarkable, which has been called the “paradox of sustainable mining”; however this chapter concludes that taking into account the less bright side of the mining its activity maintains an important balance between necessities to cover, available resources and environment. The second chapter sets out where this Thesis has been conducted. The frame of this work lies between iron mining, ore processing, the market and the latter steel fabrication (steelmaking). This chapter shows the iron mining key stakeholders, supported with statistical data. The third chapter refers to the whole process definition. From the iron mineral to the rolled steel, all data related with energy consumption and CO2 emissions are considered step by step. Different iron deposits widespread all over the world are analyzed now, as well as the exploited iron mineral in order to apply the lessons learned to create a new sustainability tool. Then, our sustainability studies will consider the influence of this in the energy necessities when iron is transformed. Chapter four is divided in the currently applied sustainability measurement tools, and focusing on energy consumption and CO2 emissions linked to the iron mining process. This tool is essential to calculate the required indicator that reflects the sustainability. Chapter five is the Thesis’ core: it is where the new sustainable indicator is developed, the methodology stated and the final conclusions obtained. Through several examples the indicator application is explained, and a practical and simple sustainable classification will show the ranking of every exploitation. This last chapter develops the sustainable tool and discovers how the weighted relation between energy consumption and CO2 emissions allows understanding all the relevant parameters in the iron mineral transformation. The number calculated will be used to classify the mineral exploitation, taking into account the deposit typology, mineral characteristics (mineralogy, type of mineral, iron percentage, physical properties as hardness or grain size, magnetic susceptibility, etc.), geographic situation, infrastructures, etc. Although steelmaking is not studied in depth, main parameters (from the mineral side) which can operate in the energy decrease (and CO2 emissions in parallel) are referred to: reducibility, iron content and SiO2 influence. The bibliography used is included at the end of this paper.