41 resultados para Previsión demográfica
Resumo:
Si existe un denominador común en la contemporaneidad este tiene que ver con el cambio y la transitoriedad. Surfeamos en las olas de una sociedad siempre cambiante incierta y cada vez más imprevisible. La postmodernidad ha devenido en un tiempo sin certezas, el habitante de la sociedad de la transitoriedad desconoce la previsión de futuro. Ante la ausencia de certidumbres, los individuos están obligados a concatenar proyectos episódicos a corto plazo. Este modo de vida fragmentada requiere una gran capacidad de adaptación y flexibilidad para poder sobrevivir en condiciones de incertidumbre endémicas. Por esa razón, la construcción de cualquier situación en términos intelectuales y metodológicos a cualquier escala, requiere una nueva visión, no sólo en términos de espacio, sino fundamentalmente, de tiempo. La presente tesis no pretende plantear el problema desde el punto de vista filosófico, aunque inevitablemente tendrá que referirse a pensadores y científicos utilizados desde la arquitectura. En esta línea, se hace necesario preguntarse como el arquitecto puede operar con esta incertidumbre, en otras palabras: ¿Existe un potencial para el arquitecto en la inestabilidad y el cambio constante del contexto urbano, social y económico? ¿Y si es así, cómo se opera con esta incertidumbre? La inestabilidad de todo el contexto social, político, cultural y económico en el que la arquitectura tiene lugar hoy, hace imprescindible analizar las herramientas y protocolos de proyecto. La tesis tratará, como su título indica, sobre algunas de las estrategias que frente a los postulados del Movimiento Moderno, aparecen entre 1961 y 1978, y reformuladas bajo el prisma de la contemporaneidad, pueden constituir herramientas que hoy resulta pertinente analizar, desde un punto de vista crítico pero también pragmático, en el marco de inestabilidad en el que se desarrolla la disciplina arquitectónica, a estas metodologías las denominaremos Estrategias de Incertidumbre. Por definición, la arquitectura ha operado históricamente, entre el presente conocido y el futuro incierto. Y aunque en la segunda mitad del siglo XX, se produce un cambio significativo en la manera de aproximarse a los cambios futuros de programa o de uso, en la vida útil de los edificios, operando con el cambio y la indeterminación como herramientas de proyecto, lo que es probablemente nuevo hoy, es la inestabilidad de todo el contexto social, político, cultural y económico en el que se genera la arquitectura. La presente tesis analiza una serie de estrategias que han incorporado la incertidumbre como ingrediente activo en la elaboración del proyecto arquitectónico, hasta el punto de redefinir completamente la disciplina. La primera hipótesis plantea el diseño de la anticipación como respuesta a la incertidumbre, a través de la introducción de la flexibilidad programática en el proyecto, para generar estructuras capaces de asimilar los futuros cambios. En ese sentido se buscará la indeterminación del proyecto para dejar abierto su uso. A la vez, la introducción activa del factor tiempo transforma el rol del arquitecto, que pasa a ser un gestor interdisciplinar en la generación del proyecto abierto. La segunda hipótesis plantea el papel productivo de la incertidumbre dentro del proceso creativo, buscando deliberadamente la generación de oportunidades dentro del proceso de proyecto, fomentando la observación y descubrimiento frente al diseño y la definición, manejando tiempo, crecimiento y azar como variables proyectuales, entendiendo la obra como proceso de tal manera que lo inesperado pueda aparecer. Para acometer la investigación, en relación al modelo canónico del Movimiento Moderno, se analizan nuevos modelos surgidos en los 60 en distintos contextos, alineados entre otros, con los protocolos de John Cage y sus secuencias randomizadas o la cibernética, fundamentalmente a partir de 1961, año en el que se publican dos textos, Theory and Design in the First Machine Age de Reyner Banham y An approach to Cybernetics de Gordon Pask. El pensamiento sistémico de Gordon Pask – colaborador de Price en el Fun Palace - tendrá gran influencia en la formulación del concepto de Incertidumbre Calculada, enunciado y planteado como estrategia por Cedric Price, que incorpora, a partir de ese momento, protocolos de diseño propios de la cibernética, en proyectos como el Fun Palace y Potteries Thinkbelt a principios de los años 60. En ellos, el arquitecto, desde la toma de conciencia de la caducidad de los paradigmas clásicos heredados de los principales teóricos de la modernidad, entiende que el proyecto de arquitectura debe incorporar cierto grado de indeterminación para dar cabida a las incertidumbres del programa, introducir la obsolescencia programada o verificar el potencial de la incertidumbre en la sociedad postindustrial. Estos planteamientos tienen continuidad en la figura de un joven profesor llegado en 1970 a la Architectural Association de Londres, el arquitecto suizo Bernard Tschumi. Los programas académicos desarrollados por Tschumi en Londres de 1970 a 1975 - en los que combina el activismo político, las acciones urbanas inspiradas en Lefebvre y Debord y las técnicas del performance juegan un rol crucial en la formalización del discurso y la práctica arquitectónica a partir de los años 70 y suponen el paso de un modelo directo, transitivo, a un modelo operativo, donde la conducta y los objetivos no se establecen a priori, sino que se instalan en el interior de los procesos, ampliando un campo disciplinar, que a partir de ese momento se centrará en lo performativo. Tras estos proyectos, analizaremos su llegada a Nueva York en 1978, año en que presenta los Manhattan Transcripts y se publica Delirious New York, obras que sustituirán la cultura del espacio y la forma, por la capacidad de acción del programa a partir de su modificación dimensional y relacional. Este capítulo tendrá su epílogo en el Concurso Internacional de La Villette en 1982, en las propuetas de Tschumi, Koolhaas y Price, donde la indeterminación estará presente mediante la generación de paisajes perceptivos y programáticos cambiantes. Tras los dos capítulos centrales, el capítulo final Estrategias de Incertidumbre, que da título a la Tesis, recapitulará las estrategias analizadas a través de tres proyectos contemporáneos, proyectando otras tantas ventanas para futuras investigaciones.
Resumo:
El aumento de las capacidades de interconexión de dispositivos de todo tipo está suponiendo una revolución en el campo de la prestación de servicios, tanto en la cantidad como en la variedad. Esta evolución ha puesto de manifiesto la necesidad de abordar un desarrollo tecnológico sin precedentes, donde la previsión de dispositivos interconectados e interoperando entre sí y con las personas alcanza cifras del orden de los millardos. Esta idea de un mundo de cosas interconectadas ha dado lugar a una visión que se ha dado en llamar Internet de las Cosas. Un mundo donde las cosas de cualquier tipo pueden interactuar con otras cosas, incluyendo las que forman parte de redes con recurso limitados. Y esto además conduce a la creación de servicios compuestos que superan a la suma de las partes. Además de la relevancia tecnológica, esta nueva visión enlaza con la de la Ciudad del Futuro. Un concepto que recurre a la convergencia de la energía, el transporte y las tecnologías de la información y las comunicaciones para definir una forma mediante la que lograr el crecimiento sostenible y competitivo, mejorando así la calidad de vida y abriendo el gobierno de las ciudades a la participación ciudadana. En la línea de desarrollo que permite avanzar hacia la consecución de tales objetivos, este Proyecto Fin de Carrera propone una forma de virtualizar los servicios ofrecidos por la diversidad de dispositivos que van adquiriendo la capacidad de interoperar en una red. Para ello se apoya en el uso de una capa de intermediación orientada a servicios, nSOM, desarrollada en la EUITT. Sobre esta arquitectura se proponen como objetivos el diseño y desarrollo de una pasarela de servicios que haga accesibles desde la web los recursos ofrecidos en una red de sensores; el diseño y desarrollo de un registro de dispositivos y servicios en concordancia a la propuesta de arquitectura de referencia para Internet de las Cosas; y el estudio y diseño de un marco para la composición de servicios orquestados en redes de recursos limitados. Para alcanzar estos objetivos primero se abordará un estudio del estado del arte donde se profundizará en el conocimiento de la las tecnologías para la interoperatividad entre cosas, abordando los principios de las redes inalámbricas de sensores y actuadores, las arquitecturas para las comunicaciones Máquina a Máquina e Internet de las Cosas, y la visión de la Web de las Cosas. Seguidamente se tratarán las tecnologías de red y de servicios de interés, para finalizar con un breve repaso a las tecnologías para la composición de servicios. Le seguirá una descripción detallada de la arquitectura nSOM y del diseño propuesto para este proyecto. Finalmente se propondrá un escenario sobre el que se llevarán a cabo diferentes pruebas de validación. ABSTRACT. The increasing of the capabilities of all kind of devices is causing a revolution in the field of the provision of services, both in quantity and in diversity. This situation has highlighted the need to address unprecedented technological development, where the forecast of interconnected and interoperable devices between them and human beings reaches the order of billions. And these numbers go further when the connectivity of constrained networks is taken into account. This idea of an interconnected world of things has led to a vision that has been called "The Internet of Things". It’s a vision of a world where things of any kind can interact with other things, even those in the domain of a constrained network. This also leads to the creation of new composed services that exceed the sum of the parts. Besides the technological interest, this new vision relates with the one from the Smart City. A concept that uses the convergence of the energy, the transport, and the information and communication technologies to define a way to achieve sustainable and competitive growth, improving the quality of life, and opening the governance of the cities to the participation. In the development pathway to reach these goals, this Final Degree Dissertation proposes a way for the virtualization of the services offered by the variety of devices that are reaching the ability to interoperate in a network. For this it is supported by a service oriented middleware called nSOM that has been developed at EUITT. Using this architecture the goals proposed for this project are the design and development of a service gateway that makes available the resources of a sensor network through a web interface; the design and development of a Device & Service Registry according to the reference architecture proposal for the Internet of Things; and the study and design of a composition framework for orchestrated services in constrained networks. To achieve these goals this dissertation begins with a State of the Art study where the background knowledge about the technologies in use for the interoperation of things will be settled. At first it starts talking about Wireless Sensor and Actuator Networks, the architectures for Machine-to-Machine communication and Internet of Things, and also the concepts for the Web of Things vision. Next the related network and services technologies are explored, ending with a brief review of service composition technologies. Then will follow a detailed description of the nSOM architecture, and also of the proposed design for this project. Finally a scenario will be proposed where a series of validation tests will be conducted.
Resumo:
El presente Proyecto Fin de Carrera consiste en un estudio de los accesos a red que utilizan los servicios a los que están adscritos los usuarios de servicios de teleasistencia, planteando al final del mismo un modelo de previsión de caídas que permita que ese acceso a red no sea un problema para la prestación del servicio. Para poder llegar a los objetivos anteriormente descritos, iniciaremos este documento presentando qué se entiende actualmente como servicios de telemedicina y teleasistencia. Prestaremos atención a los actores que intervienen, usos y beneficios que tienen tanto para los pacientes como para las administraciones públicas. Una vez sepamos en qué consisten, centraremos la atención en las redes de acceso que se utilizan para prestar los servicios de telemedicina, con sus ventajas y desventajas. Puesto que no todos los servicios tienen los mismos requisitos generales de fiabilidad o velocidad de transmisión, veremos cómo se puede garantizar las necesidades de cada tipo de servicio por parte del proveedor de red. El siguiente paso para llegar a establecer el modelo de previsión de caídas será conocer las necesidades técnicas y de los actores para prestar un servicio de teleasistencia en el hogar de un paciente. Esto incluirá estudiar qué equipos se necesitan, cómo gestionarlos y cómo marcar el tráfico para que el operador de red sepa cómo tratarlo según el servicio de teleasistencia que se está utilizando, llevando a generar un modelo de supervisión de enlaces de teleasistencia. Llegados a este punto estaremos ya preparados para establecer un modelo de previsión de caídas de la conexión, describiendo la lógica que se necesite para ello, y poniéndolo en práctica con dos ejemplo concretos: un servicio de telemonitorización domiciliaria y otro servicio de telemonitorización ambulatoria. Para finalizar, realizaremos una recapitulación sobre lo estudiado en este documento y realizaremos una serie de recomendaciones. ABSTRACT. This Thesis is a study of the access network to be used with services assigned to patients that are users of telecare services. In the last chapter we will describe a fall forecasting model that allows the access network to not be an issue for the service. For achieving the objectives described above, this paper will begin with the presentation of what is now understood as telemedicine and telecare services. We pay attention to the actors involved, uses and benefits that they have both for patients and for public administrations. Once we know what telecare means and what requisites they have, we will focus on access networks which are used to provide telemedicine services, with their advantages and disadvantages. Since not all services have the same general requirements of reliability and transmission speed, we will try to see how you can ensure the needs of each type of service from the network provider's point of view. The next step is to establish that the forecasting model of falls will meet the technical needs and actors to provide telecare service in the home of a patient. This will include a study of what equipment is needed, how to manage and how to mark traffic for the network operator knowing how to treat it according to the telecare service being used, and this will lead us to the creation of a model of telecare link monitoring. At this point we are already prepared to establish a forecasting model of connection drops, describing the logic that is needed for this, and putting it into practice with two concrete examples: telemonitoring service and an ambulatory telemonitoring service. Finally, we will have a recap on what has been studied in this paper and will make a series of recommendations.
Resumo:
El mundo de las telecomunicaciones evoluciona a gran velocidad, acorde con las necesidades de los usuarios. El crecimiento del número de servicios a través de las conexiones que actualmente utilizamos para conectarnos a Internet (Ej. IPTV) con elevados requerimientos de ancho de banda, que junto a los servicios de nuevo nacimiento (ej. OTT), contribuyen tanto al aumento de la necesidad de mayores velocidades de conexión de los usuarios como a la implantación de nuevos modelos de calidad de servicio. Las redes de datos de banda ancha (fija y móvil) actuales deben, por lo tanto, experimentar una profunda transformación para conseguir solventar de una forma eficiente los problemas y las necesidades de tráfico, pudiendo así absorber el progresivo incremento del ancho de banda, dejando las puertas abiertas a futuras mejoras. Y para ello las operadoras se nutrirán con la valiosa información de tráfico y usuario que les lleven a tomar las mejores decisiones de cara a que las transformaciones llevadas a cabo cubran exactamente lo que el usuario demanda de la forma más eficiente posible. Con estas premisas, surgieron las ideas que se plasmaron como objetivos del PFC : La idea de narrar el despliegue de la banda ancha en España desde sus orígenes hasta la actualidad, enfocando su crecimiento desde un punto de vista sociotecnológico. Dando continuidad al punto anterior, se persiguió la idea de conocer las herramientas sociales y tecnológicas a raíz de las cuales se pueda realizar una previsión del tráfico en las redes de las operadoras en un futuro cercano. La pretensión de mostrar las características de los usuarios de banda ancha y del tráfico de datos que generan, que son de carácter crítico para las operadoras en la elaboración de forma adecuada de la planificación de sus redes. La intención de revelar los procedimientos de las operadoras para que, una vez conocidas las características de sus usuarios, se puedan cumplir los requisitos demandados por los mismos: QoS y los indicadores clave de rendimiento (KPIs) Por otro lado, el nivel de detalle dado pretende adecuarse a un público que no tenga profundos conocimientos sobre la materia, y salvo partes bastante concretas, se puede catalogar este trabajo como de abierto al público en general. ABSTRACT. The world of telecommunications is evolving at high speed, according to the needs of users. The growing of services number through the connections that currently have been used to connect to the Internet (eg IPTV ) with high bandwidth requirements, which together with the new birth services (eg OTT ) contribute both to increased the need for higher connection speeds users and the implementation of new models of service quality. Data networks broadband (fixed and mobile ) today must , therefore, undergo a deep transformation to achieve an efficient solving problems and traffic needs, thus being able to absorb the gradual increase of bandwidth, leaving the door open to future improvements. And for that the operators will be nurtured with valuable information and user traffic that lead them to make better decisions in the face of the transformations carried out exactly meet the user demand for the most efficient possible way. With these assumptions, the ideas that emerged were expressed as PFC objectives : The idea of narrating the broadband deployment in Spain from its origins to the present, focusing its growth from a socio-technological approach. Continuing the previous point, it pursued the idea of knowing the social tools and technology as a result of which it can perform a traffic forecast operators networks in the near future. The attempt to show the characteristics of broadband users and data traffic they generate, which are mission critical for operators in developing adequately planning their networks. The intention to disclose procedures for operators, once known the characteristics of their users, it can meet the requirements demanded by them: QoS and key performance indicators (KPI). On the other hand, the level of detail given suit seeks an audience that does not have deep knowledge on the subject, unless quite specific parts, this work can be classified as open to the general public.
Resumo:
La computación basada en servicios (Service-Oriented Computing, SOC) se estableció como un paradigma ampliamente aceptado para el desarollo de sistemas de software flexibles, distribuidos y adaptables, donde las composiciones de los servicios realizan las tareas más complejas o de nivel más alto, frecuentemente tareas inter-organizativas usando los servicios atómicos u otras composiciones de servicios. En tales sistemas, las propriedades de la calidad de servicio (Quality of Service, QoS), como la rapídez de procesamiento, coste, disponibilidad o seguridad, son críticas para la usabilidad de los servicios o sus composiciones en cualquier aplicación concreta. El análisis de estas propriedades se puede realizarse de una forma más precisa y rica en información si se utilizan las técnicas de análisis de programas, como el análisis de complejidad o de compartición de datos, que son capables de analizar simultáneamente tanto las estructuras de control como las de datos, dependencias y operaciones en una composición. El análisis de coste computacional para la composicion de servicios puede ayudar a una monitorización predictiva así como a una adaptación proactiva a través de una inferencia automática de coste computacional, usando los limites altos y bajos como funciones del valor o del tamaño de los mensajes de entrada. Tales funciones de coste se pueden usar para adaptación en la forma de selección de los candidatos entre los servicios que minimizan el coste total de la composición, basado en los datos reales que se pasan al servicio. Las funciones de coste también pueden ser combinadas con los parámetros extraídos empíricamente desde la infraestructura, para producir las funciones de los límites de QoS sobre los datos de entrada, cuales se pueden usar para previsar, en el momento de invocación, las violaciones de los compromisos al nivel de servicios (Service Level Agreements, SLA) potenciales or inminentes. En las composiciones críticas, una previsión continua de QoS bastante eficaz y precisa se puede basar en el modelado con restricciones de QoS desde la estructura de la composition, datos empiricos en tiempo de ejecución y (cuando estén disponibles) los resultados del análisis de complejidad. Este enfoque se puede aplicar a las orquestaciones de servicios con un control centralizado del flujo, así como a las coreografías con participantes multiples, siguiendo unas interacciones complejas que modifican su estado. El análisis del compartición de datos puede servir de apoyo para acciones de adaptación, como la paralelización, fragmentación y selección de los componentes, las cuales son basadas en dependencias funcionales y en el contenido de información en los mensajes, datos internos y las actividades de la composición, cuando se usan construcciones de control complejas, como bucles, bifurcaciones y flujos anidados. Tanto las dependencias funcionales como el contenido de información (descrito a través de algunos atributos definidos por el usuario) se pueden expresar usando una representación basada en la lógica de primer orden (claúsulas de Horn), y los resultados del análisis se pueden interpretar como modelos conceptuales basados en retículos. ABSTRACT Service-Oriented Computing (SOC) is a widely accepted paradigm for development of flexible, distributed and adaptable software systems, in which service compositions perform more complex, higher-level, often cross-organizational tasks using atomic services or other service compositions. In such systems, Quality of Service (QoS) properties, such as the performance, cost, availability or security, are critical for the usability of services and their compositions in concrete applications. Analysis of these properties can become more precise and richer in information, if it employs program analysis techniques, such as the complexity and sharing analyses, which are able to simultaneously take into account both the control and the data structures, dependencies, and operations in a composition. Computation cost analysis for service composition can support predictive monitoring and proactive adaptation by automatically inferring computation cost using the upper and lower bound functions of value or size of input messages. These cost functions can be used for adaptation by selecting service candidates that minimize total cost of the composition, based on the actual data that is passed to them. The cost functions can also be combined with the empirically collected infrastructural parameters to produce QoS bounds functions of input data that can be used to predict potential or imminent Service Level Agreement (SLA) violations at the moment of invocation. In mission-critical applications, an effective and accurate continuous QoS prediction, based on continuations, can be achieved by constraint modeling of composition QoS based on its structure, known data at runtime, and (when available) the results of complexity analysis. This approach can be applied to service orchestrations with centralized flow control, and choreographies with multiple participants with complex stateful interactions. Sharing analysis can support adaptation actions, such as parallelization, fragmentation, and component selection, which are based on functional dependencies and information content of the composition messages, internal data, and activities, in presence of complex control constructs, such as loops, branches, and sub-workflows. Both the functional dependencies and the information content (described using user-defined attributes) can be expressed using a first-order logic (Horn clause) representation, and the analysis results can be interpreted as a lattice-based conceptual models.
Resumo:
Este proyecto es el primer trabajo que se realiza con objeto de construir una presa en el cauce del arroyo de la Jornia, que discurre por la provincia de Toledo. Además de la misión fundamental de la presa, que es el abastecimiento para el riego de fincas próximas, se pueden añadir otra serie de objetivos que surgen de dicho proyecto: permitir el crecimiento urbanístico de la zona al acabar con la continua carencia de agua, lo que paliaría la tendencia demográfica descendente de esos municipios; mantener y potenciar el aprovechamiento de la calidad medioambiental de la zona, motivo por el que en el proyecto se cuidarán mucho todos los detalles relacionados con este aspecto; promover el empleo en la zona y el desarrollo de industrias que trabajarán en las obras emprendidas; fomentar el crecimiento poblacional y turístico de la zona, mediante el desarrollo de actividades acuáticas deportivas en el embalse creado por la presa.
Resumo:
Este proyecto tiene por objeto definir las diferentes obras e instalaciones necesarias para poder realizar, de acuerdo con la normativa vigente, el tratamiento de la totalidad de las aguas residuales producidas en el casco urbano del municipio de Arganda del Rey, con una previsión de vida útil de 25 años, es decir, para el año de proyecto 2038. Las obras que se consideran incluidas en la construcción de la Estación Depuradora de Aguas Residuales (E.D.A.R.) de Arganda del Rey son: bombeo de las aguas residuales a tratar, desde el emisario a la planta de nueva onstrucción, toma de entrada de las aguas residuales a la estación de tratamiento;instalaciones de tratamiento de las aguas residuales (E.D.A.R.), restitución al río Jarama del efluente tratado,instalaciones de energía eléctrica, agua potable y telefonía necesarias para el funcionamiento correcto de la estación y acondicionamiento del camino de acceso existente a la planta. Así mismo se pretende la consecución en todo momento de unos requisitos mínimos de calidad, costes y funcionalidad que se pueden resumir en: buena relación coste/calidad,introducción de nuevas técnicas ya experimentadas con resultados óptimos, establecimiento de equilibrio entre los costes de primera inversión y los de mantenimiento, facilitar la explotación y mantenimiento de la instalación, reducción de costes de mantenimiento y aspecto estético de la instalación agradable.
Resumo:
El objeto el presente Proyecto es definir la alternativa seleccionada para la construcción de un nuevo Puerto Deportivo en la Bahía de Pasajes, que proporcione una solución a la demanda de amarres recreativos existente. Además, se resolverá la situación de degradación ambiental existente en su emplazamiento, debida tanto a la intensa actividad industrial desarrollada durante más de 100 años, como a su alta densidad demográfica y el consiguiente volumen de tráfico rodado.
Resumo:
Muchas de las grandes iniciativas empresariales, se ven truncadas por falta de un adecuado análisis económico-financiero. Incluso, muchas grandes ideas no son implantadas correctamente en el primer intento por este motivo, y son otras personas las que consiguen posteriormente el éxito de esas brillantes ideas gracias a una correcta aproximación financiera. Las empresas necesitan definir sus objetivos, establecer las para lograrlos, identificar las personas responsables de su ejecución (sus roles y funciones) y elaborar un plan económico-financiero que recoja el estudio de inversiones necesarias, el análisis de costes, la previsión de ingresos, así como la estrategia financiera más adecuada para la captación de los fondos necesarios para llevar a cabo las acciones programadas. Una vez iniciado el proyecto empresarial, será imprescindible realizar un seguimiento y control de la evolución (integración), tomando las medidas que se estimen oportunas para mantener el rumbo adecuado durante todo el tiempo de actividad. En este trabajo, aplicaremos las metodologías y buenas prácticas de la gestión de proyectos, como marco estructurado que nos permita abordar las principales cuestiones económico-financieras a tener en cuenta a la hora de enfrentarnos a un proyecto empresarial, para contribuir, en la medida de lo posible, a que los emprendedores tengan en cuenta estas cuestiones, facilitando así el desarrollo de negocios, en un difícil entorno económico de crisis como el que actualmente estamos viviendo en España, y animando de esta manera a optar por la iniciativa emprendedora, tratando de minimizar el riesgo en base al contenido. ---ABSTRACT---Lack of adequate economic and financial analysis truncates many of the entrepreneurship and innovation programs. Because of that reason, many great ideas are not even correctly implemented on the first attempt, and the person who finds the proper financial approach, succeed. All the enterprises have to establish clear objectives, actions to accomplish those objectives, assign roles, responsibilities and executive functions to specific people. Elaborate funding plan that contains surveys on necessary investments, cost analysis, estimate the income, liquid assets and also financial strategy suitable for fundraising to finance programmed actions. Once the project has been executed it is essential to monitor and control the development and integration adopting measures accordingly to the needs. This thesis applies methodology and best practice of project management as structured framework for the principal economic and financial issues facing business project. It is necessary contribution to entrepreneurs understanding of business, therefore facilitates business development in such rough environment as Spain is at this moment, and at the same time encourages adopting entrepreneur’s solution as less risky one. This document aims to explore all the economic and financial issues from methodological point of view based on my own professional experience, resulting in helping to understand the importance that economy and finances have in developing adequate corporate strategy. Crisis has highlighted inadequate functionality of many companies. Most popular first symptom is lack of cash flow that deteriorates the company, and results in suspension of payments followed by closing. In other cases, difficulties appear due to poor financial management of committed resources; to be observed in lack of prevision and planning or incorrect basic functionality and operational matters on daily basis. What would be your advice to someone who have magnificent business idea however no knowledge on how to handle finances in order to succeed in initiating and executing the project? Despite of the fact that the central nucleus of this paper is at economics and finances area, all the other concepts and topics given during master will be revived; for example business strategy, consultants abilities, organization and standard processes, among others, are impregnated with knowledge of project management.
Resumo:
Este proyecto tiene por objeto el estudio de la viabilidad, tanto económica como técnica, de la apertura y explotación de una cantera de granito para su uso como roca ornamental. Para ello se ha seleccionado una zona de potencial interés en Santa Olalla del Cala (Huelva) debido a los afloramientos y la tonalidad de los mismos. En esta zona se ha realizado un estudio del medio físico y una investigación sobre los tipos de roca existentes en la superficie que comprende el Permiso de Investigación de la compañía minera Canteras Extremeñas S.L. Con todo ello, se han determinado varias áreas de interés en las que se podría realizar el emplazamiento de la cantera. Desde el punto de vista técnico, se ha definido el diseño de la cantera optando por un método de explotación combinando el Método Finlandés con el corte con hilo diamantado, proyectando a su vez una zona de emplazamiento para la futura escombrera temporal, teniendo en cuenta la realización de un estudio de impacto ambiental, plan de restauración, plan de vigilancia ambiental, explosivos y previsión de ejecución de las labores. El estudio realizado de los indicadores económicos nos muestra que el proyecto es rentable, con todo ello se concluye que, tanto técnica como económicamente, la explotación del recurso minero es viable. ABSTRACT This project aims to study the feasibility, both economic and technical, to the opening and operation of a granite quarry for use as an ornamental stone. For this we have selected an area of potential interest in Santa Olalla del Cala (Huelva) due to upwelling and tonality of these. In this area, it has made a study of the physical environment and an investigation into the types of rock on the surface comprising the Research Permit of the mining company Canteras Extremeñas SL. With all this, we have identified several areas of interest in which they could make the location of the quarry. From the technical point of view, we have defined the design of the quarry opting for a mining method combining the Finnish Method with the diamond wire cutting, projecting turn an area of the site for future temporal tip, taking into account the completion of an environmental impact, restoration plan, environmental monitoring plan, explosives and forecasting operations execution. The study of economic indicators shows that the project is profitable, yet it can be concluded that, both technically and economically, exploitation of mineral resources is viable.
Resumo:
Este proyecto tiene por objeto definir las diferentes obras e instalaciones necesarias para poder realizar, de acuerdo con la normativa vigente, el tratamiento de la totalidad de las aguas residuales producidas en el casco urbano del municipio de Yepes (Toledo), con una previsión de vida útil de 25 años. En la actualidad, este municipio no dispone de la infraestructura necesaria para la depuración de las aguas residuales generadas por sus habitantes e industria, que además se prevé que aumenten ligeramente en los próximos años, debido al proyecto de construcción de un Polígono Industrial.
Resumo:
El programa de Evaluación Recursos Hídricos procedentes de la Innivación (ERHIN) ha desarrollado un modelo hidrológico con subrutinas que contemplan el proceso de acumulación/fusión de nieve que permite el seguimiento del manto de nieve y su fusión , esencial para la previsión de avenidas en embalses cuyas cuencas vertientes recogen altos porcentajes de precipitación solida. En determinados sectores del territorio español (Pirineos, Cordilleras Cantábrica e Ibérica, Sistema Central y Sierra Nevada) la precipitación nival alcanza valores significativos durante el invierno, que conducen a espesores de nieve persistentes en las cuencas alimentadoras de numerosos embalses y a la fusión rápida de esta nieve en períodos cortos de tiempo, directamente relacionados con la elevación de la isoterma de cero grados en primavera. Estos procesos condicionan la gestión de los mencionados embalses.
Resumo:
El presente proyecto de fin de carrera esta desarrollado para el explicar el estado actual de las telecomunicaciones en España. Mercado que esta en constante evolución tecnológica y que se ha pasado inicialmente medir por la tasa de penetración de líneas vocales en un país a pasar de hablar de indicadores como la voz IP, descarga de contenidos, uso de los dispositivos ya que el contenido de lo que las redes transporta es donde puede estar el negocio para los operadores.El proyecto de fin de carrera a groso modo está distribuido en dos partes. La primera parte del proyecto, esta enfocado de una manera teórica haciendo una análisis del mercado actual de las telecomunicaciones. Para ello se realiza un primer estudio de los mercados de telecomunicaciones a nivel europeo y en España. Se analiza el sector de las TIC haciendo un repaso por los datos claves obtenidos en el último año y que han sido influenciados por la crisis mundial que vivimos en la actualidad. Detalles de la evolución de los servicios, infraestructuras de nueva generación desplegadas, inversiones y gastos de los operadores así como la cuota de servicio de los mismos. Regulaciones recientes e iniciativas como la Agenda Electrónica Digital para impulsar el crecimiento de la Sociedad de la Información. Investigación sobre la adopción y uso cotidiano de las nuevas tecnologías y dispositivos que hacen los ciudadanos que permiten mejoran nuestras vidas, la productividad de la economía y que será de devenir de las tendencias futuras hacia las que se moverá el mercado. Adicionalmente se plantea cuestiones sobre las tendencias de futuro de las redes de telecomunicaciones, analizando la previsión del volumen de datos creciente a transportar, los mecanismos para aumentar la capacidad, flexibilidad y eficiencia de las redes mediante técnicas como la virtualizacion (SDN).Debido a la experiencia profesional adquirida trabajando en un ISP como es Telefonica de España administrando sus redes y servicios a grandes empresas, profundizare con detalle técnico en estudiar y mostrar como estan montadas sus infraestructuras de red (Red IP Única, NGN, Multiservicio/UNO,…) , los diferentes tipos de accesos a las redes incluyendo los de nueva generación (FTTH) así como el catalogo de servicios ofertados (Macrolan, VPN-IP, Ibercom IP…), principalmente basados RPVs y sus facilidades asociadas sobre las mencionadas redes para las grandes empresas, PYMES y residencial que les permite la comunicación nacional o internacional entre las diferentes emplazamientos de sus oficinas con sus sedes centrales. La segunda parte de este proyecto se describe la implementación de un caso práctico real tanto en tema de configuración y montaje de equipamientos empleados (router,antena 3G…) de una oficina móvil basado en el servicio vpn-ip de Telefonica con acceso móvil 3G que se encuentra en el actual portfolio de sus productos que se explico en teóricamente en la primera parte del proyecto y que tiene conectividad con la red IP Única de la RPV del cliente Caja de Seguros Reunidos (CASER) la cual que nos permitirá conectarnos remotamente a un servidor de monitorización de su intranet ubicada en su sede central de Madrid que muestreara el trafico que se esta cursado por los interfaces del router de la oficina móvil. En la configuración del router se empleara diferentes métodos de conectividad como túneles GRE para la conectividad con los equipos de la red IP Única, LT2P y PPP para el acceso a la red móvil y se dotara de mayor seguridad al trafico cursado por la oficina Mobil empleando túneles IPSEC para la encriptación y cifrado de los datos para evitar que el trafico que va en claro por la red móvil si es interceptado por un tercero no sea capaz de analizarlo y descifrarlo y no se vea afectada la privacidad de la información que estamos transmitiendo.
Resumo:
In opposition to the current period of upheaval and manifest limitations of the quantitative methods to develop forecasting models for reliable in medium and long term future scenarios, it is increasingly necessary turning to qualitative approaches which minimize the impact of unexpected consequences: foresight. Flexible models from the new progress on complex systems development, but seen from the other side, the negative thinking. This is an instrument that looks like so contemporary but it could be inherent to the whole interdisciplinary knowledge transfer. RESUMEN Ante el convulso panorama actual y las patentes limitaciones de los métodos cuantitativos para el desarrollo de modelos de previsión de escenarios futuros fi ables a medio y largo plazo, resulta cada vez más necesario, recurrir a planteamientos cualitativos que minimicen el impacto de las consecuencias imprevistas: la prospectiva. Modelos fl exibles procedentes de los nuevos avances en el desarrollo de los sistemas complejos, pero desde un enfoque distinto, el pensamiento negativo. Un instrumento que si bien parece ser completamente contemporáneo, sería inherente a toda transferencia interdisciplinar de conocimiento.
Resumo:
Esta tesis analiza los criterios con que fueron proyectadas y construidas las estructuras de hormigón hasta 1973, fecha coincidente con la Instrucción EH-73, que en contenido, formato y planteamiento, consagró la utilización de los criterios modernamente utilizados hasta ahora. Es heredera, además, de las CEB 1970. Esos años marcan el cambio de planteamiento desde la Teoría Clásica hacia los Estados Límite. Los objetivos perseguidos son, sintéticamente: 1) Cubrir un vacío patente en el estudio de la evolución del conocimiento. Hay tratados sobre la historia del hormigón que cubren de manera muy completa el relato de personajes y realizaciones, pero no, al menos de manera suficiente, la evolución del conocimiento. 2) Servir de ayuda a los técnicos de hoy para entender configuraciones estructurales, geometrías, disposiciones de armado, formatos de seguridad, etc, utilizados en el pasado, lo que servirá para la redacción más fundada de dictámenes preliminares sobre estructuras existentes. 3) Ser referencia para la realización de estudios de valoración de la capacidad resistente de construcciones existentes, constituyendo la base de un documento pre-normativo orientado en esa dirección. En efecto, esta tesis pretende ser una ayuda para los ingenieros de hoy que se enfrentan a la necesidad de conservar y reparar estructuras de hormigón armado que forman parte del patrimonio heredado. La gran mayoría de las estructuras, fueron construidas hace más de 40 años, por lo que es preciso conocer los criterios que marcaron su diseño, su cálculo y su construcción. Pretende determinar cuáles eran los límites de agotamiento y por tanto de seguridad, de estructuras dimensionadas con criterios de antaño, analizadas por la metodología de cálculo actual. De este modo, se podrá determinar el resguardo existente “real” de las estructuras dimensionadas y calculadas con criterios “distintos” a los actuales. Conocer el comportamiento de las estructuras construidas con criterios de la Teoría Clásica, según los criterios actuales, permitirá al ingeniero de hoy tratar de la forma más adecuada el abanico de necesidades que se puedan presentar en una estructura existente. Este trabajo se centra en la evolución del conocimiento por lo que no se encuentran incluidos los procesos constructivos. En lo relativo a los criterios de proyecto, hasta mediados del siglo XX, éstos se veían muy influidos por los ensayos y trabajos de autor consiguientes, en los que se basaban los reglamentos de algunos países. Era el caso del reglamento prusiano de 1904, de la Orden Circular francesa de 1906, del Congreso de Lieja de 1930. A partir de la segunda mitad del siglo XX, destacan las aportaciones de ingenieros españoles como es el caso de Alfredo Páez Balaca, Eduardo Torroja y Pedro Jiménez Montoya, entre otros, que permitieron el avance de los criterios de cálculo y de seguridad de las estructuras de hormigón, hasta los que se conocen hoy. El criterio rector del proyecto de las estructuras de hormigón se fundó, como es sabido, en los postulados de la Teoría Clásica, en particular en el “momento crítico”, aquel para el que hormigón y acero alcanzan sus tensiones admisibles y, por tanto, asegura el máximo aprovechamiento de los materiales y sin pretenderlo conscientemente, la máxima ductilidad. Si el momento solicitante es mayor que el crítico, se dispone de armadura en compresión. Tras el estudio de muchas de las estructuras existentes de la época por el autor de esta tesis, incluyendo entre ellas las Colecciones Oficiales de Puentes de Juan Manuel de Zafra, Eugenio Ribera y Carlos Fernández Casado, se concluye que la definición geométrica de las mismas no se corresponde exactamente con la resultante del momento crítico, dado que como ahora resultaba necesario armonizar los criterios de armado a nivel sección con la organización de la ferralla a lo largo de los diferentes elementos estructurales. Los parámetros de cálculo, resistencias de los materiales y formatos de seguridad, fueron evolucionando con los años. Se fueron conociendo mejor las prestaciones de los materiales, se fue enriqueciendo la experiencia de los propios procesos constructivos y, en menor medida, de las acciones solicitantes y, consiguientemente, acotándose las incertidumbres asociadas lo cual permitió ir ajustando los coeficientes de seguridad a emplear en el cálculo. Por ejemplo, para el hormigón se empleaba un coeficiente de seguridad igual a 4 a finales del siglo XIX, que evolucionó a 3,57 tras la publicación de la Orden Circular francesa de 1906, y a 3, tras la Instrucción española de 1939. En el caso del acero, al ser un material bastante más conocido por cuanto se había utilizado muchísimo previamente, el coeficiente de seguridad permaneció casi constante a lo largo de los años, con un valor igual a 2. Otra de las causas de la evolución de los parámetros de cálculo fue el mejor conocimiento del comportamiento de las estructuras merced a la vasta tarea de planificación y ejecución de ensayos, con los estudios teóricos consiguientes, realizados por numerosos autores, principalmente austríacos y alemanes, pero también norteamericanos y franceses. En cuanto a los criterios de cálculo, puede sorprender al técnico de hoy el conocimiento que tenían del comportamiento del hormigón desde los primeros años del empleo del mismo. Sabían del comportamiento no lineal del hormigón, pero limitaban su trabajo a un rango de tensióndeformación lineal porque eso aseguraba una previsión del comportamiento estructural conforme a las hipótesis de la Elasticidad Lineal y de la Resistencia de Materiales, muy bien conocidas a principios del s. XX (no así sucedía con la teoría de la Plasticidad, aún sin formular, aunque estaba implícita en los planteamientos algunos ingenieros especializados en estructuras de fábrica (piedra o ladrillo) y metálicas. Además, eso permitía independizar un tanto el proyecto de los valores de las resistencias reales de los materiales, lo que liberaba de la necesidad de llevar a cabo ensayos que, en la práctica, apenas se podían hacer debido a la escasez de los laboratorios. Tampoco disponían de programas informáticos ni de ninguna de las facilidades de las que hoy se tienen, que les permitiera hacer trabajar al hormigón en un rango no lineal. Así, sabia y prudentemente, limitaban las tensiones y deformaciones del material a un rango conocido. El modus operandi seguido para la elaboración de esta tesis, ha sido el siguiente: -Estudio documental: se han estudiado documentos de autor, recomendaciones y normativa generada en este ámbito, tanto en España como con carácter internacional, de manera sistemática con arreglo al índice del documento. En este proceso, se han detectado lagunas del conocimiento (y su afección a la seguridad estructural, en su caso) y se han identificado las diferencias con los procedimientos de hoy. También ha sido necesario adaptar la notación y terminología de la época a los criterios actuales, lo que ha supuesto una dificultad añadida. -Desarrollo del documento: A partir del estudio previo se han ido desarrollando los siguientes documentos, que conforman el contenido de la tesis: o Personajes e instituciones relevantes por sus aportaciones al conocimiento de las estructuras de hormigón (investigación, normativa, docencia). o Caracterización de las propiedades mecánicas de los materiales (hormigón y armaduras), en relación a sus resistencias, diagramas tensión-deformación, módulos de deformación, diagramas momento-curvatura, etc. Se incluye aquí la caracterización clásica de los hormigones, la geometría y naturaleza de las armaduras, etc. o Formatos de seguridad: Se trata de un complejo capítulo del que se pretende extraer la información suficiente que permita a los técnicos de hoy entender los criterios utilizados entonces y compararlos con los actuales. o Estudio de secciones y piezas sometidas a tensiones normales y tangenciales: Se trata de presentar la evolución en el tratamiento de la flexión simple y compuesta, del cortante, del rasante, torsión, etc. Se tratan también en esta parte del estudio aspectos que, no siendo de preocupación directa de los técnicos de antaño (fisuración y deformaciones), tienen hoy mayor importancia frente a cambios de usos y condiciones de durabilidad. o Detalles de armado: Incluye el tratamiento de la adherencia, el anclaje, el solapo de barras, el corte de barras, las disposiciones de armado en función de la geometría de las piezas y sus solicitaciones, etc. Es un capítulo de importancia obvia para los técnicos de hoy. Se incluye un anejo con las referencias más significativas a los estudios experimentales en que se basaron las propuestas que han marcado hito en la evolución del conocimiento. Finalmente, junto a las conclusiones más importantes, se enuncian las propuestas de estudios futuros. This thesis analyzes the criteria with which structures of reinforced concrete have been designed and constructed prior to 1973. Initially, the year 1970 was chosen as starting point, coinciding with the CEB recommendations, but with the development of the thesis it was decided that 1973 was the better option, coinciding with the Spanish regulations of 1973, whose content, format and description introduced the current criteria. The studied period includes the Classic Theory. The intended goals of this thesis are: 1) To cover a clear gap in the study of evolution of knowledge about reinforced concrete. The concept and accomplishments achieved by reinforced concrete itself has been treated in a very complete way by the main researchers in this area, but not the evolution of knowledge in this subject area. 2) To help the engineers understand structural configurations, geometries, dispositions of steel, safety formats etc, that will serve as preliminary judgments by experts on existing structures. To be a reference to the existing studies about the valuation of resistant capacity of existing constructions, constituting a basic study of a pre-regulation document. This thesis intends to be a help for the current generation of engineers who need to preserve and repair reinforced concrete structures that have existed for a significant number of years. Most of these structures in question were constructed more than 40 years ago, and it is necessary to know the criteria that influenced their design, the calculation and the construction. This thesis intends to determine the safety limits of the old structures and analyze them in the context of the current regulations and their methodology. Thus, it will then be possible to determine the safety of these structures, after being measured and calculated with the current criteria. This will allow the engineers to optimize the treatment of such a structure. This work considers the evolution of the knowledge, so constructive methods are not included. Related to the design criteria, there existed until middle of the 20th century a large number of diverse European tests and regulations, such as the Prussian norm of 1904, the Circular French Order of 1906, the Congress of Liège of 1930, as well as individual engineers’ own notes and criteria which incorporated the results of their own tests. From the second half of the 20th century, the contributions of Spanish engineers as Alfredo Páez Balaca, Eduardo Torroja and Pedro Jiménez Montoya, among others, were significant and this allowed the advancement of the criteria of the calculation of safety standards of concrete structures, many of which still exist to the present day. The design and calculation of reinforced concrete structures by the Classic Theory, was based on the ‘Critical Bending Moment’, when concrete and steel achieve their admissible tensions, that allows the best employment of materials and the best ductility. If the bending moment is major than the critical bending moment, will be necessary to introduce compression steel. After the study of the designs of many existing structures of that time by the author of this thesis, including the Historical Collections of Juan Manuel de Zafra, Eugenio Ribera and Carlos Fernandez Casado, the conclusion is that the geometric definition of the structures does not correspond exactly with the critical bending moment inherent in the structures. The parameters of these calculations changed throughout the years. The principal reason that can be outlined is that the materials were improving gradually and the number of calculated uncertainties were decreasing, thus allowing the reduction of the safety coefficients to use in the calculation. For example, concrete used a coefficient of 4 towards the end of the 19th century, which evolved to 3,57 after the publication of the Circular French Order of 1906, and then to 3 after the Spanish Instruction of 1939. In the case of the steel, a much more consistent material, the safety coefficient remained almost constant throughout the years, with a value of 2. Other reasons related to the evolution of the calculation parameters were that the tests and research undertaken by an ever-increasing number of engineers then allowed a more complete knowledge of the behavior of reinforced concrete. What is surprising is the extent of knowledge that existed about the behavior of the concrete from the outset. Engineers from the early years knew that the behavior of the concrete was non-linear, but they limited the work to a linear tension-deformation range. This was due to the difficulties of work in a non-linear range, because they did not have laboratories to test concrete, or facilities such as computers with appropriate software, something unthinkable today. These were the main reasons engineers of previous generations limited the tensions and deformations of a particular material to a known range. The modus operandi followed for the development of this thesis is the following one: -Document study: engineers’ documents, recommendations and regulations generated in this area, both from Spain or overseas, have been studied in a systematic way in accordance with the index of the document. In this process, a lack of knowledge has been detected concerning structural safety, and differences to current procedures have been identified and noted. Also, it has been necessary to adapt the notation and terminology of the Classic Theory to the current criteria, which has imposed an additional difficulty. -Development of the thesis: starting from the basic study, the next chapters of this thesis have been developed and expounded upon: o People and relevant institutions for their contribution to the knowledge about reinforced concrete structures (investigation, regulation, teaching). Determination of the mechanical properties of the materials (concrete and steel), in relation to their resistances, tension-deformation diagrams, modules of deformation, moment-curvature diagrams, etc. Included are the classic characterizations of concrete, the geometry and nature of the steel, etc. Safety formats: this is a very difficult chapter from which it is intended to provide enough information that will then allow the present day engineer to understand the criteria used in the Classic Theory and then to compare them with the current theories. Study of sections and pieces subjected to normal and tangential tensions: it intends to demonstrate the evolution in the treatment of the simple and complex flexion, shear, etc. Other aspects examined include aspects that were not very important in the Classic Theory but currently are, such as deformation and fissures. o Details of reinforcement: it includes the treatment of the adherence, the anchorage, the lapel of bars, the cut of bars, the dispositions of reinforcement depending on the geometry of the pieces and the solicitations, etc. It is a chapter of obvious importance for current engineers. The document will include an annex with the most references to the most significant experimental studies on which were based the proposals that have become a milestone in the evolution of knowledge in this area. Finally, there will be included conclusions and suggestions of future studies. A deep study of the documentation and researchers of that time has been done, juxtaposing their criteria and results with those considered relevant today, and giving a comparison between the resultant safety standards according to the Classic Theory criteria and currently used criteria. This thesis fundamentally intends to be a guide for engineers who have to treat or repair a structure constructed according to the Classic Theory criteria.