940 resultados para Distancias totales recorridas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es importante poder conocer la deformación que sufre una estructura en momentos concretos por carga, temperatura y comportamiento del suelo, refiriéndola a un marco externo estable. Esto puede realizarse mediante un control geodésico de deformaciones. La posterior comparación entre las coordenadas obtenidas de las diversas campañas de control, nos darán los movimientos relativos de la presa (o vectores de deformación) y alrededores, indicando si ha sufrido alguna deformación, información de suma importancia a la hora del mantenimiento y detección de posibles incidencias ocurridas en la estructura. La presa de La Tajera, ubicada en el río Tajuña en su tramo de cabecera, cuenta con una cuenca vertiente de 595 km2, desde la cual se atienden la mayoría de las demandas de la cuenca. La presa de titularidad estatal, lleva en servicio desde el año 1994. En Octubre de 2010, la Confederación Hidrográfica encargó la reobservación de la red geodésica de control y la comparación con la campaña de 1993 de la presa de La Antes de entrar en carga, con el embalse vacío y a altas temperaturas, se detectó una fisura en el paramento de aguas abajo, a lo largo de la transición entre bóveda y zócalo, extendiéndose hasta la clave de la galería perimetral. Motivo por el cual, se realizaron entre 2001 y 2002, varios trabajos de reparación, debido a los cuales se obstruyó parte del acceso a la infraestructura de control. La infraestructura de control de la presa de La Tajera consta de: - Red de pilares de control (incluyendo ménsulas de paramento en el extradós del muro de presa, en dos niveles.). - Red de nivelación trigonométrica de precisión de ménsulas de paramento. - Nivelación geométrica de precisión de las líneas existentes. Debido a la falta de control de geodésico desde el 1993, la comparación entre grupos de coordenadas, de tan solo dos épocas diferentes, aportó menos información que la que se hubiera obtenido haciendo controles anuales, puesto que no se pudo discernir entre movimientos atribuidos al asentamiento, carga, temperatura, fisuras u otros. En el 1993 se utilizó para la observación de la red el láser submilimétrico ME-5000, actualmente descatalogado, debido a lo cual, en el 2010 se optó por usar otro instrumento de gran precisión, para aprovechar la precisión del grupo de observaciones del 93, una Estación Total TRIMBLE S6, puesto que los requerimientos técnicos de precisión, quedaron cubiertos con sus precisiones instrumentales. Debido lo anterior, hubo que buscar un sistema común, coherente y riguroso de cálculo, para relacionar ambos grupos de observaciones bajo unos criterios comunes y poder así realizar un estudio comparativo de resultados. Previo a la observación, además de todas las verificaciones rutinarias, se uso un estudio de puntería por desorientación sobre los miniprimas, que concluía con la introducción de un casquillo suplementario de 13 mm, para evitar un posible error. También se realizó un estudio, para determinar el error producido, en las medidas de distancia, por la presión y la temperatura en el electrodistanciómetro. Como dato a tener en cuenta sobre las estaciones robóticas, decir que, durante la observación de la red de pilares hubo que detener el desagüe de la presa, puesto que las vibraciones producidas por este, impedían al sistema de puntería automática (Autolock) fijar la dirección a la estación visada. La nivelación trigonométrica de las ménsulas de paramento se hizo, en ambos años, por Nivelación trigonométrica de Precisión, descomponiendo la figura en triángulos independientes y observando cenitales recíprocos y simultáneos, con 3 teodolitos Wild T2 provistos de placas Nitrival pequeñas, esta técnica tiende a compensar errores de coeficiente de refracción y de esfericidad. Un error en la distancia geométrica repercute en función del coseno del ángulo cenital. Como en nuestro caso la determinación de distancias fue milimétrica, y las alturas de instrumentos eran las mismas, la precisión que obtuvimos en la determinación de desniveles fue submilimétrica. Las líneas de nivelación existentes se observaron, como en 1993, con nivelación geométrica de precisión, realizada con un equialtímetro NA2 provisto de micrómetro y observando sobre mira con escala ínvar. En los cálculos se usaron como coordenadas de referencia las obtenidas en 1993, de manera que los residuales mostraban directamente los vectores deformación. El control del 1993 se realizo con el embalse vació y a altas temperaturas, el control de 2010 se realizó con el embalse en carga máxima y con bajas temperaturas, este motivo se tuvo en cuenta a la hora de los cálculos y las interpretaciones de los vectores de deformación. Previo al trabajo de campo se realizó un reconocimiento como comprobación del estado de visuales entre pilares, el estado de los mismos, así como de los clavos de nivelación, para proceder posteriormente a realizar trabajos de tala entre visuales, limpieza de señales, y suplir las señales perdidas. El proyecto contiene la descripción del historial de control, de las actuaciones realizadas, los resultados obtenidos y toda la información relevante disponible, con las oportunas referencias a la campaña previa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la presente tesis se estudian los contenidos geoquímicos de los sedimentos de llanura de inundación en diversas cuencas fluviales seleccionadas con el objetivo de contribuir a un mejor conocimiento de sus condiciones medioambientales. En cada cuenca, se ha muestreado un perfil vertical de llanura de inundación, dividiéndolo en tramos que generalmente corresponden a diferentes episodios de inundación. Estos sedimentos se depositan durante los episodios de crecidas una vez que la corriente sobrepasa los límites del canal. Se caracterizan normalmente por tener un tamaño de grano fino y una estructura en capas horizontales que corresponden a los sucesivos episodios de inundación. Muestran dos ventajas principales con respecto a otros medios de muestreo en geoquímica como suelos o sedimentos de corriente: • Pueden almacenar sedimento antiguo así como actual, con lo que se puede estudiar la historia geoquímica de una zona específica en un mismo punto de muestreo (perfil vertical). • Los sedimentos de llanuras de inundación son capaces de caracterizar grandes áreas de drenaje. El origen de los sedimentos es más diverso que en el sedimento de corriente, debido a las mayores áreas de donde proceden las aguas de las avenidas. Las cuencas han sido seleccionadas según las actividades antropogénicas que en ellas se llevan a cabo, en concreto, actividades urbanas e industriales, minería y agricultura. Así mismo, se han estudiado, como referencia, dos cuencas donde no se espera encontrar ningún tipo de actividad contaminante. Una vez hecha la selección, los sedimentos aluviales de las cuencas se han estudiado cuidadosamente para asegurar que no existen depósitos de acreción lateral en el punto seleccionado. Posteriormente se ha procedido al muestreo del perfil vertical. Las muestras han sido analizadas mediante ICP-MS (ataque total) e INAA para conocer los contenidos totales de los elementos traza y mayoritarios. Los análisis de la fracción extraíble se han llevado a cabo mediante ICP-MS (ataque con agua regia). Así mismo, algunas muestras seleccionadas han sido sometidas a una extracción secuencial para un estudio más detallado. La presencia de materia orgánica ha sido estimada mediante el análisis de Carbono Orgánico Total (TOC). Finalmente, se ha llevado a cabo un análisis de isótopos de Pb en muestras escogidas en los perfiles, con el objetivo de hacer una evaluación ambiental. Los contenidos metálicos aumentan hacia la superficie en algunos de los perfiles, mientras en otros muestran una distribución muy constante exceptuando algún nivel específico con un aumento de los contenidos de la mayoría de los metales. Ha sido posible determinar la influencia de las actividades antropogénicas en algunos de los perfiles. Aquellos que pertenecen a cuencas mineras, urbanas o industrializadas muestran generalmente altos contenidos en elementos metálicos. Es el caso de los perfiles muestreados en los ríos Odiel y Tinto, Besaya, Besós y Manzanares. Algunos de estos perfiles pueden incluso correlacionarse con periodos de tiempo en los que ha tenido lugar una actividad antropogénica más intensa. Los perfiles que mejor se correlacionan con la actividad antropogénica de la cuenca son el perfil de Rivas en el río Manzanares (Madrid), que refleja un crecimiento de la contaminación producida por las actividades urbana e industrial en las últimas décadas, y el río Tinto, que muestra un crecimiento llamativo de los contenidos en su mayoría metálicos que puede estar relacionado con el incremento de la actividad minera que tuvo lugar hace aproximadamente 125 años. El análisis de los isótopos de Pb ha resultado ser una herramienta útil en la evaluación ambiental de estos sedimentos. Con este estudio y mediante la comparación con fuentes naturales y antropogénicas, ha sido posible diferenciar las muestras afectadas por diferentes fuentes de plomo, así como detectar las más afectadas antropogénicamente. ABSTRACT The geochemical composition of overbank sediments of some selected river basins is studied in this thesis in order to contribute to a better knowledge of the environmental conditions surrounding them. In each basin a vertical overbank profile has been sampled, dividing it into stretches that usually correspond to different flood events. The overbank sediments are those deposited during a flood event once the flow spills over the channel banks. They are usually characterized by a very fine grain size and a structure of horizontal layers, which correspond to successive flood events. These sediments show two main advantages regarding other sampling media in geochemistry, like soils or stream sediments: • They can store sediment deposited in the past as well as in current times, so that the history of a specific location can be studied at the very same point (vertical profile). • The overbank sediments are able to characterize a large drainage area. The origin of the sediment is wider than in the stream sediments due to the larger areas where the flood water comes from. The basins have been selected depending on the anthropogenic activities developed in them, namely, urban and industrial activities, mining activities and agricultural activities. As well, two pristine basins have been studied as a reference. Afterwards, the alluvial sediments in the basins have been carefully studied in order to sample a vertical profile and make sure that lateral accretion materials are not present in the profile. The samples have been analysed by ICP-MS (total digestion) and INAA to know the total contents of trace and major elements. Analysis of the mobile fraction has been carried out by ICP-MS (aqua regia); as well some of the samples have been subjected to sequential extraction for a more detailed study. The presence of organic matter has been estimated by the analysis of the Total Organic Carbon (TOC). Finally, a lead isotope analysis of some of the samples in the profiles was carried out in order to make an environmental assessment. Metal contents grow towards the surface in some of the profiles, while others show a very steady distribution, except for some of them with a growth of most of the metals in a specific level. XI It has been possible to determine the influence of the anthropogenic activities in some of the profiles. The ones that belong to mining and urban or industrialized basins show generally high contents of metal elements. This is the case of the profiles sampled in the Odiel and Tinto Rivers, the Besaya River, the Besós River and the Manzanares River. Some of these profiles can even correlate with the periods of time when a more intense activity in their respective basins has taken place. The profiles which best correlate with the anthropogenic activity are the Rivas profile in the Manzanares River, which reflects a growth of the pollution produced by urban and industrial activities in the city of Madrid in the last decades and the Tinto profile, which shows a very dramatic growth of the elemental contents (mostly metals) which can be related to the increase of the mining activities that took place in the last 125 years. The analysis of lead isotopes has turned out to be a powerful tool in the environmental assessment in this type of sediments. With this study and through the comparison with natural and anthropogenic sources, it has been possible to determine samples affected by different sources of lead and to detect the most anthropogenicaly affected ones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El transporte marítimo, responsable de la canalización del 90% de los flujos comerciales internacionales, se organiza en torno a los puertos. Éstos, que resultan plataformas indispensables para el desarrollo de la economía, compiten entre sí para maximizar el tráfico atraído hacia sus instalaciones. El papel estratégico de los puertos tiene un expreso reconocimiento en el contexto de la Unión Europea, tanto desde la óptica del comercio como bajo el prisma del transporte. No en vano, por los puertos europeos transita más del 90 % del comercio de la Unión con terceros países y aproximadamente, el 40 % del tráfico intracomunitario. Los puertos españoles configuran un eje neurálgico en el desarrollo del transporte marítimo a nivel internacional y una plataforma logística para todo el sur de Europa. Sus más de siete mil novecientos kilómetros de costa y un emplazamiento geográfico estratégico, confirman al territorio nacional como un punto de especial interés por sus establecimientos portuarios. La actividad del Sistema Portuario Español con una cifra de negocio de más de 1000 millones de euros, representa anualmente un 20 % del Producto Interior Bruto específico del sector transporte, aporta un 1.1% al Producto Interior Bruto Nacional y genera 145.000 empleos directos e indirectos. Debido a la actual coyuntura económica ahora, más que nunca, la competencia interportuaria se ha intensificado y sólo aquellos puertos que sean capaces de adaptarse a las nuevas necesidades y que puedan prestar unos servicios portuarios de calidad, fiables y a precios competitivos estarán en condiciones de mantener sus tráficos. La entrada en vigor de la Ley 33/2010, de 5 de agosto, de modificación de la Ley 48/2003, de 26 de noviembre, de régimen económico y de prestación de servicios en los puertos de interés general, marca como uno de sus objetivos principales el fomento de la eficiencia y la competitividad de nuestros puertos a través de la promoción de la competencia. La Ley avanza en la liberalización de los servicios portuarios, en particular, destaca el servicio portuario de manipulación de mercancías en donde se introducen algunas modificaciones con las que pretende dotar de transparencia, así como normalizar el acceso a la profesión y a la formación. Surge por tanto, la conveniencia de investigar las condiciones de prestación de los servicios portuarios, su impacto en la competitividad del sistema portuario y sobre cada uno de los agentes que forman parte de la cadena global del transporte marítimo. En primer lugar, la Autoridad Portuaria, como organismo público que tiene entre sus competencias la gestión y control de los servicios portuarios para lograr que se desarrollen en condiciones óptimas de eficacia, economía, productividad y seguridad. Al analizar el sector mediante el modelo de “Cinco Fuerzas de Porter” descubrimos que el creciente poder de los proveedores de servicios portuarios, especialmente el de manipulación de mercancías y el proceso de descentralización en la gestión de los puertos de interés general está restando atractivo y competitividad al sector. Además según la encuesta realizada a los representantes de las Autoridades Portuarias, existe prácticamente unanimidad acerca de la importancia de los servicios portuarios en la competitividad del puerto y la falta de transparencia existente, particularmente en el servicio de manipulación de mercancías. Por otro lado, pone de manifiesto los aspectos considerados más importantes, que son el coste y la fiabilidad en la prestación del servicio. A continuación se investiga la repercusión del coste de los servicios portuarios en el precio final del producto, es decir, cómo inciden éstos en la competitividad del tejido empresarial al que sirven los puertos y su impacto en el consumidor final. Concluyendo que el coste de los servicios portuarios tiene de media un peso del 12 % frente al coste global del transporte marítimo y aproximadamente un 0.5% respecto al precio del producto. Posteriormente se realiza una exhaustiva investigación de las principales empresas prestadoras de servicios portuarios en España, se sintetizan los principales datos y se realiza un análisis de la estructura y evolución del sector. Se observa una tendencia a la integración en grandes grupos empresariales vinculados al sector marítimo y a la concentración sectorial. Siendo conscientes de la importancia de la optimización de los servicios portuarios para las empresas operadoras de terminales y navieras, se ha procedido a contrastar la hipótesis inicial de que el servicio de manipulación de mercancías es el responsable de la mayor parte (65 %) del coste del paso de la mercancía por el puerto. Por tanto, a la vista de los resultados obtenidos, por la importancia manifestada tanto por parte de las Autoridades Portuarias como por las empresas operadoras de terminales, a partir de éste punto se particulariza la investigación para el servicio portuario de manipulación de mercancías. Se selecciona una muestra significativa de empresas estibadoras, se procede a homogeneizar sus cuentas de pérdidas y ganancias y sus balances. Posteriormente se calcula y analiza un elevado número de ratios económico-financieros que tendremos en cuenta a la hora de evaluar una solicitud para el otorgamiento de una licencia para la prestación del servicio de manipulación de mercancías. Asimismo se ha procedido a realizar una cuenta de pérdidas y ganancias y un balance modelo, tanto para la empresa media, construida a partir de los ratios medios, como para una empresa ideal desde el punto de vista empresarial, construida a partir de los mejores ratios obtenidos. Ante la necesidad detectada en el estado del arte de la falta de mecanismos para dotar de transparencia al sector, mediante esta estructura la Autoridad Portuaria dispondrá de una herramienta que le permita objetivizar el proceso de toma de decisiones a la hora de establecer sus condiciones en los Pliegos de Prescripciones Particulares y otorgar las licencias, así como evaluar la rentabilidad de la empresa a lo largo del periodo de prestación del servicio. Por un lado, una empresa prestadora de servicios portuarios, debe obtener una rentabilidad acorde con las expectativas de sus accionistas y como mínimo superior al coste de capital de la misma. Al mismo tiempo, la Administración que tutela la prestación del servicio, la Autoridad Portuaria, debe verificar la viabilidad de la propuesta, pues ello será garantía de éxito de la empresa y por tanto de continuidad de prestación del servicio en el puerto pero también debe asegurar una competitividad en costes. Al proceder a la extracción de conclusiones a partir de los ratios económico-financieros obtenidos para las empresas estibadoras (Ratio medio Beneficios/Ventas=4.68%) se pone de manifiesto que claramente el problema de ineficiencia y sobrecostes no está siendo provocado por unos elevados márgenes de rentabilidad de éstas. Por tanto, se analizan otros agentes integrantes en el proceso y se detecta la particular situación de la mano de obra del estibador portuario. Se investigan las ventajosas condiciones laborales que disfrutan y se proponen una serie de medidas que producirían una mejora en la competitividad del servicio que conllevarían una reducción de un 30 % sobre los costes totales del paso de la mercancía por el puerto. En un sector global como es el marítimo, con un escenario cada vez más dinámico y competitivo, con la presente tesis doctoral se trata de asegurar que los factores clave de éxito identificados se cumplan, siendo uno de éstos el liderazgo en costes, que necesariamente se deberá equilibrar con la viabilidad económica de la empresa en la prestación del servicio de la manera más eficiente y productiva, haciendo el puerto más atractivo tanto para los clientes actuales como potenciales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente se está empezando a consolidar una nueva forma de gestionar la conservación y mantenimiento de la red viaria de las Administraciones Públicas, basándose en contratos de colaboración público-privadas (PPP). Las motivaciones que están provocando este movimiento son de diversa índole. Por un lado, en el seno de la Unión Europea, existen serias restricciones presupuestarias debido al alto endeudamiento del sector público, lo que está llevando a buscar la forma óptima de disminuir el endeudamiento público, sin dejar de prestar servicios a la sociedad como la conservación y mantenimiento de las redes viarias. Por esta vertiente, se trata de convertir contratos convencionales de conservación viaria a esquemas de colaboración público-privada, donde se transferiría al sector privado el riesgo de disponibilidad de la vía mediante el uso de indicadores de calidad y servicio. Con esta transferencia de riesgo, junto con la transferencia del riesgo de demanda/construcción, no consolidaría la deuda de la sociedad de propósito específico constituida para la gestión del contrato de colaboración público-privada dentro de las cuentas públicas, con lo que se conseguiría no aumentar el déficit público, permitiendo continuar ofreciendo el servicio demandado por la sociedad. Por otro lado, la segunda motivación del desarrollo de este tipo de contratos, no tan economicista como la anterior y más enfocada a la gestión, se trata de utilizar los contratos de gestión basados en el uso de indicadores de calidad de servicio para mejorar las prestaciones de la red viaria competencia de una Administración. Con el uso de estos indicadores, el gestor tiene una herramienta muy útil para controlar la actividad del sector privado y asegurar que se ofrece un buen servicio. En la presente tesis, la investigación se ha centrado más en la vertiente de los indicadores de calidad relacionados con la gestión eficiente de las vías objeto de conservación y mantenimiento mediante el empleo de contratos de gestión privada que utilicen este tipo de herramientas de control, monitorización y gestión. En una primera parte, la presente tesis estudia el estado de la red de carreteras, referido principalmente a España, comparando su estado con el resto de redes de carreteras de Europa, detectando las principales carencias de la misma, sobre todo en cuanto a la gestión y conservación de firmes. En un segundo bloque, la tesis analiza el estado del arte de los nuevos procedimientos de gestión de la conservación y mantenimiento basados en indicadores de calidad del servicio en el mundo, destacándose que se trata de un tema relativamente reciente, con gran interés para el sector de la gestión y financiación de infraestructuras viarias. Al ser tan novedoso, por la falta de experiencias previas, las distintas Administración, tanto propias como foráneas, han pecado de un exceso de celo a la hora de establecer los umbrales sobre los que giran los distintos indicadores de calidad de servicio que permiten controlar la gestión de la conservación y mantenimiento de la vía. Partiendo de la labor de análisis descrita, la tesis realiza una investigación más detallada de los indicadores de calidad de servicio correspondientes a firmes bituminosos, debido a que estos indicadores son los más delicados y decisivos a la hora de realizar una correcta gestión de la vía a largo plazo. Dentro de los indicadores de firmes bituminosos, se ha realizado un modelo específico de evolución de comportamiento a lo largo del tiempo de la regularidad superficial, parámetro básico para numerosas Administraciones y organismos investigadores para poder conocer la evolución de un firme a lo largo del tiempo. A esta metodología se le ha dado el nombre de Modelo JRB para evaluar la racionalidad económica de indicadores de calidad asociados a parámetros de firmes. El modelo propuesto básicamente evalúa el valor óptimo desde la perspectiva económica que ha de tener el parámetro técnico que defina alguna propiedad del firme, aplicado a la definición de los indicadores de calidad de servicio. Esta visión del valor umbral del indicador deja a un lado consideraciones de equidad o de cualquier otra índole, basándose más en una visión económica. La metodología del Modelo JRB se puede aplicar a cualquier indicador de calidad relacionado con firmes, ya que lo que se obtiene es el valor óptimo económico que debería tener el umbral del indicador de calidad. El Modelo JRB consta de varias fases. En las primeras etapas el Modelo realiza el cálculo de los costes totales de transporte utilizando como herramienta el software HDM-IV desarrollado por el Banco Mundial. En etapas posteriores, el Modelo realiza análisis de sensibilidad para distintas propuestas de sección de firme, intensidades de tráfico y restricciones al parámetro técnico que define el indicador de calidad de servicio. Como ejercicio práctico de cara a contrastar la metodología del Modelo JRB se ha realizado un Caso de Estudio. Se ha tomado un tramo teórico, con características similares a la red de carreteras española, y con una flota vehicular similar a la española, donde se ha elegido como indicador de calidad la regularidad superficial (IRI). Con las sensibilidades realizadas con el Modelo JRB, se ha determinado el rango de valores que debería tener un indicador de calidad basado en el IRI para que dichos valores fueran óptimos desde la perspectiva económica Nowadays is becoming a new way to manage O&M (operation and maintenance) in public road networks, based on PPP contracts (public-private partnership). There are several issues which are driving this trend. On the one hand, EU (European Union) has serious budgetary constraints due to the high public sector borrowing. EU politicians are looking for the best way to reduce public debt, keeping services to society such as O&M of road networks. For this aspect, conventional O&M contracts are switching to PPP scenarios, where availability risk would be transfer to private sector using PI (performance indicators), along with demand risk transfer With this risk transference, along with the transfer of demand/construction risk, SPV (specific purpose vehicle) debt doesn’t consolidate in public accounts, so deficit wouldn’t increase, allowing the continuation of services demanded by society. On the other hand, the second motivation for developing this kind of contracts, not so economist as above and more focused to management, it is about using O&M contracts based on the use of PI to improve road network maintenance. Using these indicators, manager has a very useful tool to monitor private sector activity and ensure that it is provided a good service. In this thesis, the research has been focused on PI quality aspect, related with efficient management of PPP contracts for roads, which use these tools for control, monitoring and management. In the first part, this thesis examines the state of road network, based mainly in Spain, comparing with other road networks in Europe, identifying the main gaps in it, especially with regard to the management and maintenance of pavements. In a second block, the thesis analyzes the state of art of new O&M contracts based on PI in the world, emphasizing that they are relatively recent. These kinds of contracts have a great interest in road management and financing sector. Administrations all around the world have launch tenders with very exigent PI thresholds due to several factors: this knowledge is a new area, the lack of previous experiences and the variety of Administrations which have bid these contracts. Building on the described analysis, thesis develops a more detailed research about PI for bituminous pavements, because these PI are the most delicate and decisive in making a proper long term road management. Among bituminous pavements PI, IRI (International Roughness Index) has been analyzed with more detail and has been developed a specific model of behaviour evolution over time for evenness (IRI), basic parameter for many administrations and research departments in order to know the evolution of a pavement over time. This methodology has been given the name of JRB Model to evaluate the economic rationality of performance indicators associated with pavements parameters. The proposed model basically evaluates the optimal value from an economic perspective it must have the technical parameter which defines some pavement characteristic applied to the definition of performance indicators. This point of view of indicator value threshold sets aside justice considerations or otherwise, based more on an economic perspective. JRB Model methodology can be applied to any performance indicator associated to pavements, because what you get is the economic optimum threshold should have the performance indicator. JRB Model consists of several phases. In the early stages, the Model calculates transport total cost using HDM-IV software, developed by the World Bank, as a tool. In later stages, the Model performs sensitivity analyzes for different pavement section, AADT and restrictions to the technical parameter which defines the performance indicator. As a practical exercise to test JRB Model methodology, it has done a Case Study. It has taken a theoretical section, with similar characteristics to Spanish road network, and a vehicles fleet similar to Spanish. Evenness (IRI) was chosen as a performance indicator. JRB Model calculated some sensitivities, which were useful to determined thresholds range for pavement performance indicators based on IRI to be optimal from an economic perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un incremento de la demanda del agua, junto con el aumento de la contaminación, ha provocado que hoy en día la reutilización de las aguas depuradas sea necesaria, pero la reutilización de aguas debe garantizar y minimizar los posibles riesgos sanitarios y medioambientales que su práctica pueda provocar. En España estos parámetros se encuentran regulados por el RD 1620/2007 relativo al régimen jurídico de la reutilización de las aguas depuradas. Las aguas regeneradas son aguas que ya han sido sometidas a un tratamiento de depuración, y a las cuales se aplica un posterior tratamiento adicional o complementario que permita adecuar su calidad al uso al que vaya a destinarse. Siendo requeridos para los distintos reúsos procesos de desinfección, uno de los principales sistemas utilizados es el cloro, debido a su sencilla aplicación y costos bajos, sin tomar en cuenta la posible formación de compuestos organohalogenados potencialmente cancerígenos. Es por esto que surge la necesidad de aplicar distintos sistemas de oxidación objeto de estudio en esta tesis, como el dióxido de cloro estabilizado, ozono y los procesos avanzados de oxidación (Advanced Oxidation Processes, AOP), ozono/peróxido y uv/peróxido. En esta tesis se investiga los rendimientos que pueden alcanzar estos sistemas en la eliminación de los ácidos húmicos y los fenoles, siendo las principales sustancias formadoras de subproductos de la desinfección, así mismo, se considera necesario garantizar la desinfección del agua a través del estudio de tres grupos de microrganismos, los coliformes totales, e. coli y enterococos, siendo un punto importante el posible recrecimiento microbiológico debido a una desinfección escasa, por la permanencia en el agua de los compuestos antes mencionados, o por alguna fuente de alimento que pudieran encontrar en el sistema de distribución. Lo más importante será la calidad que se pueda alcanzar con estos desinfectantes, con el fin de obtener agua para los distintos reúsos que existen en la actualidad. Y así no limitar los alcances que puede tener la reutilización de las aguas residuales. Basándose en lo antes mencionado se procedió a realizar la caracterización del agua del rio Manzanares, con el fin de determinar la cantidad de ácidos húmicos disueltos y fenoles, obteniendo valores bajos, se decidió incorporar a las muestras de rio 5 mg/L de estos compuestos, con el fin de observar de que manera podrían interferir en la desinfección de esta agua. De esta forma se logran obtener resultados óptimos de los sistemas de desinfección estudiados, siendo el Ozono un oxidante eficiente en la desinfección de los microrganismos y en la eliminación de ácidos húmicos y fenoles con tiempos de contacto cortos, mostrando deficiencias al permitir el recrecimiento de los coliformes totales. Del sistema de oxidación avanzada UV/Peróxido se determino como un eficiente desinfectante para garantizar la inexistencia de rebrotes, al paso del tiempo. Así mismo se concluye que tiene buenos rendimientos en la eliminación del ácido húmico y los fenoles. An increase in water demand, coupled with increasing pollution, has caused today reuse of treated water is necessary, but must ensure water reuse and minimize potential health and environmental risks that their practice is cause. In Spain these parameters are regulated by Royal Decree 1620/2007 on the legal regime of the reuse of treated water. The reclaimed water is water that has already been subjected to a depuration treatment, which is applied as a subsequent further treatment that will bring quality to the use to which is to be delivered. As required for various reuses disinfection processes, one of the main systems used is chlorine, due to its simple implementation and low costs, without taking into account the possible formation of potentially carcinogenic halogenated organic compounds. That is why there is a need to apply different oxidation systems studied in this thesis, as stabilized chlorine dioxide, ozone and advanced oxidation processes (AOP), ozone/peroxide and UV/peroxide. This thesis investigates the rates can reach these systems in removing humic acids and phenols, the main substances forming disinfection byproducts, likewise, it is considered necessary to ensure water disinfection through the study of three groups of microorganisms, total coliform, e. coli and enterococci, the important point being a possible regrowth due to microbiological disinfection scarce, the water remaining on the aforementioned compounds, or a food source which may be found in the distribution system. The most important quality is that achievable with these disinfectants, with the water to obtain various reuses that exist today. And thus not limit the scope that can be reuse of wastewater. Based on the above we proceeded to perform characterization Manzanares river water, in order to determine the quantity of dissolved humic acids and phenols, obtaining low values, it was decided to incorporate river samples 5 mg / L of these compounds, in order to observe how they might interfere with the disinfection of the water. Thus optimum results are achieved for disinfection systems studied, being efficient ozone oxidant in the disinfection of microorganisms and the removal of humic acids and phenols with short contact times, showing gaps to allow regrowth total coliforms. Advanced oxidation system UV / peroxide were determined as an efficient disinfectant to ensure the absence of volunteers, the passage of time. Also it is concluded that has good yields in removing humic acid and phenols.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con este estudio se pretende cuantificar la cantidad de martensita que precipita durante la laminación en frío de los aceros inoxidables austeníticos tipo X5CrNi18-10 (AISI 304), X2CrNiN18-7 (AISI 301 LN) y X2CrNiMo17-12-2 (AISI 316L) con distintos grados de endurecimiento por deformación en frío. Los tres aceros elegidos para el estudio, aunque pertenecen a la familia de los aceros austeníticos, presentan diferentes cromo y níquel equivalentes, lo que se traduce según Schaeffer-Delong en diferentes microestructuras. El tipo X2CrNiMo17-12-2 tiene el mayor níquel equivalente y presenta una microestructura formada por austenita y ferrita delta, mientras que los X5CrNi18-10 y X2CrNiN18-7, de menor níquel equivalente, tienen una austenita más metaestable que conduce a una mayor formación de martensita durante la deformación [48] [49]. Una vez deformados en frío, con distintos grados de reducción de la sección, se cuantificará la martensita mediante métodos metalográficos cuantitativos, mediante estudios de difracción de rayos X [26] [28] [108], y, por último, por variación de permeabilidad magnética relativa por técnicas ferritoscópicas. Por último, se estudiará la correlación entre la precipitación de martensita [47] [60] y la variación de propiedades mecánicas mediante ensayos de tracción [31] y compresión a diferentes temperaturas [39], dada la gran influencia de aquélla en la transformación austenita→martensita [82] [83]. Las curvas límite de conformación (FLC), obtenidas con diferentes geometrías de probeta, permiten simular diferentes procesos de conformado (embutición y estirado) [84], y el análisis metalográfico cuantitativo, a diferentes distancias de la sección de rotura, proporciona la influencia de la precipitación de martensita en aquélla [85]. Estos estudios experimentales proporcionarán información sobre la influencia de la martensita de deformación en la conformabilidad de las chapas de estos aceros inoxidables austeníticos, y contribuirán a un mejor conocimiento de los fenómenos de recuperación elástica durante los procesos de conformado en frío insuficientemente conocidos en la actualidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los estudios realizados hasta el momento para la determinación de la calidad de medida del instrumental geodésico han estado dirigidos, fundamentalmente, a las medidas angulares y de distancias. Sin embargo, en los últimos años se ha impuesto la tendencia generalizada de utilizar equipos GNSS (Global Navigation Satellite System) en el campo de las aplicaciones geomáticas sin que se haya establecido una metodología que permita obtener la corrección de calibración y su incertidumbre para estos equipos. La finalidad de esta Tesis es establecer los requisitos que debe satisfacer una red para ser considerada Red Patrón con trazabilidad metrológica, así como la metodología para la verificación y calibración de instrumental GNSS en redes patrón. Para ello, se ha diseñado y elaborado un procedimiento técnico de calibración de equipos GNSS en el que se han definido las contribuciones a la incertidumbre de medida. El procedimiento, que se ha aplicado en diferentes redes para distintos equipos, ha permitido obtener la incertidumbre expandida de dichos equipos siguiendo las recomendaciones de la Guide to the Expression of Uncertainty in Measurement del Joint Committee for Guides in Metrology. Asimismo, se han determinado mediante técnicas de observación por satélite las coordenadas tridimensionales de las bases que conforman las redes consideradas en la investigación, y se han desarrollado simulaciones en función de diversos valores de las desviaciones típicas experimentales de los puntos fijos que se han utilizado en el ajuste mínimo cuadrático de los vectores o líneas base. Los resultados obtenidos han puesto de manifiesto la importancia que tiene el conocimiento de las desviaciones típicas experimentales en el cálculo de incertidumbres de las coordenadas tridimensionales de las bases. Basándose en estudios y observaciones de gran calidad técnica, llevados a cabo en estas redes con anterioridad, se ha realizado un exhaustivo análisis que ha permitido determinar las condiciones que debe satisfacer una red patrón. Además, se han diseñado procedimientos técnicos de calibración que permiten calcular la incertidumbre expandida de medida de los instrumentos geodésicos que proporcionan ángulos y distancias obtenidas por métodos electromagnéticos, ya que dichos instrumentos son los que van a permitir la diseminación de la trazabilidad metrológica a las redes patrón para la verificación y calibración de los equipos GNSS. De este modo, ha sido posible la determinación de las correcciones de calibración local de equipos GNSS de alta exactitud en las redes patrón. En esta Tesis se ha obtenido la incertidumbre de la corrección de calibración mediante dos metodologías diferentes; en la primera se ha aplicado la propagación de incertidumbres, mientras que en la segunda se ha aplicado el método de Monte Carlo de simulación de variables aleatorias. El análisis de los resultados obtenidos confirma la validez de ambas metodologías para la determinación de la incertidumbre de calibración de instrumental GNSS. ABSTRACT The studies carried out so far for the determination of the quality of measurement of geodetic instruments have been aimed, primarily, to measure angles and distances. However, in recent years it has been accepted to use GNSS (Global Navigation Satellite System) equipment in the field of Geomatic applications, for data capture, without establishing a methodology that allows obtaining the calibration correction and its uncertainty. The purpose of this Thesis is to establish the requirements that a network must meet to be considered a StandardNetwork with metrological traceability, as well as the methodology for the verification and calibration of GNSS instrumental in those standard networks. To do this, a technical calibration procedure has been designed, developed and defined for GNSS equipment determining the contributions to the uncertainty of measurement. The procedure, which has been applied in different networks for different equipment, has alloweddetermining the expanded uncertainty of such equipment following the recommendations of the Guide to the Expression of Uncertainty in Measurement of the Joint Committee for Guides in Metrology. In addition, the three-dimensional coordinates of the bases which constitute the networks considered in the investigationhave been determined by satellite-based techniques. There have been several developed simulations based on different values of experimental standard deviations of the fixed points that have been used in the least squares vectors or base lines calculations. The results have shown the importance that the knowledge of experimental standard deviations has in the calculation of uncertainties of the three-dimensional coordinates of the bases. Based on high technical quality studies and observations carried out in these networks previously, it has been possible to make an exhaustive analysis that has allowed determining the requirements that a standard network must meet. In addition, technical calibration procedures have been developed to allow the uncertainty estimation of measurement carried outby geodetic instruments that provide angles and distances obtained by electromagnetic methods. These instruments provide the metrological traceability to standard networks used for verification and calibration of GNSS equipment. As a result, it has been possible the estimation of local calibration corrections for high accuracy GNSS equipment in standardnetworks. In this Thesis, the uncertainty of calibration correction has been calculated using two different methodologies: the first one by applying the law of propagation of uncertainty, while the second has applied the propagation of distributions using the Monte Carlo method. The analysis of the obtained results confirms the validity of both methodologies for estimating the calibration uncertainty of GNSS equipment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto de esta tesis doctoral es encontrar, mediante herramientas estadísticas, un modelo matemático que prediga la evolución temporal de las concentraciones de los hidrocarburos totales del petróleo (TPH) en un proceso de biorremediación de suelos contaminados con gasoleo. Obtenido el modelo matemático realizar las comparaciones pertinentes para determinar la eficiencia de distintos tratamientos, la influencia tanto del suelo como del nivel de concentración. Para cumplir este objetivo se realizó un diseño de experimentos que tomaba en cuenta dos tipos de suelos, dos niveles de concentración de hidrocarburo y seis tratamientos. Se realizaron en total 1824 ensayos en laboratorio repartidos en 8 campañas de campo durante un año de experiencia tanto en parcelas de 4 x 4 m como en microcosmos. Los resultados obtenidos muestran que el proceso de biorremediación se puede ajustar a un comportamiento exponencial, que es una ecuación de cinética de primer orden, y que las comparaciones realizadas han mostrado resultados satisfactorios de la eficiencia de algunos tratamientos. ABSTRACT The purpose of this thesis is using statistical tools find a mathematical model to predict the time evolution of the total petroleum hydrocarbons (TPH) concentrations in the bioremediation process of diesel contaminated soil. Retrieved mathematical model make relevant comparisons to determine the efficiency of different treatments and the influence of both soil and concentration levels. To achieve this goal a design of experiments was developed, it took into account two types of soil, two concentration levels of hydrocarbon and six treatments. There were a total of 1824 laboratory tests spread over 8 field campaigns during a year of experience in both plots of 4 x 4 m in microcosm. The results obtained show that the bioremediation process can be adjusted to an exponential model, it is an equation of kinetic of first order and that the comparisons have shown satisfactory results of the efficiency of some treatments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las Tecnologías de la Información y la Comunicación en general e Internet en particular han supuesto una revolución en nuestra forma de comunicarnos, relacionarnos, producir, comprar y vender acortando tiempo y distancias entre proveedores y consumidores. A la paulatina penetración del ordenador, los teléfonos inteligentes y la banda ancha fija y/o móvil ha seguido un mayor uso de estas tecnologías entre ciudadanos y empresas. El comercio electrónico empresa–consumidor (B2C) alcanzó en 2010 en España un volumen de 9.114 millones de euros, con un incremento del 17,4% respecto al dato registrado en 2009. Este crecimiento se ha producido por distintos hechos: un incremento en el porcentaje de internautas hasta el 65,1% en 2010 de los cuales han adquirido productos o servicios a través de la Red un 43,1% –1,6 puntos porcentuales más respecto a 2010–. Por otra parte, el gasto medio por comprador ha ascendido a 831€ en 2010, lo que supone un incremento del 10,9% respecto al año anterior. Si segmentamos a los compradores según por su experiencia anterior de compra podemos encontrar dos categorías: el comprador novel –que adquirió por primera vez productos o servicios en 2010– y el comprador constante –aquel que había adquirido productos o servicios en 2010 y al menos una vez en años anteriores–. El 85,8% de los compradores se pueden considerar como compradores constantes: habían comprado en la Red en 2010, pero también lo habían hecho anteriormente. El comprador novel tiene un perfil sociodemográfico de persona joven de entre 15–24 años, con estudios secundarios, de clase social media y media–baja, estudiante no universitario, residente en poblaciones pequeñas y sigue utilizando fórmulas de pago como el contra–reembolso (23,9%). Su gasto medio anual ascendió en 2010 a 449€. El comprador constante, o comprador que ya había comprado en Internet anteriormente, tiene un perfil demográfico distinto: estudios superiores, clase alta, trabajador y residente en grandes ciudades, con un comportamiento maduro en la compra electrónica dada su mayor experiencia –utiliza con mayor intensidad canales exclusivos en Internet que no disponen de tienda presencial–. Su gasto medio duplica al observado en compradores noveles (con una media de 930€ anuales). Por tanto, los compradores constantes suponen una mayoría de los compradores con un gasto medio que dobla al comprador que ha adoptado el medio recientemente. Por consiguiente es de interés estudiar los factores que predicen que un internauta vuelva a adquirir un producto o servicio en la Red. La respuesta a esta pregunta no se ha revelado sencilla. En España, la mayoría de productos y servicios aún se adquieren de manera presencial, con una baja incidencia de las ventas a distancia como la teletienda, la venta por catálogo o la venta a través de Internet. Para dar respuesta a las preguntas planteadas se ha investigado desde distintos puntos de vista: se comenzará con un estudio descriptivo desde el punto de vista de la demanda que trata de caracterizar la situación del comercio electrónico B2C en España, poniendo el foco en las diferencias entre los compradores constantes y los nuevos compradores. Posteriormente, la investigación de modelos de adopción y continuidad en el uso de las tecnologías y de los factores que inciden en dicha continuidad –con especial interés en el comercio electrónico B2C–, permiten afrontar el problema desde la perspectiva de las ecuaciones estructurales pudiendo también extraer conclusiones de tipo práctico. Este trabajo sigue una estructura clásica de investigación científica: en el capítulo 1 se introduce el tema de investigación, continuando con una descripción del estado de situación del comercio electrónico B2C en España utilizando fuentes oficiales (capítulo 2). Posteriormente se desarrolla el marco teórico y el estado del arte de modelos de adopción y de utilización de las tecnologías (capítulo 3) y de los factores principales que inciden en la adopción y continuidad en el uso de las tecnologías (capítulo 4). El capítulo 5 desarrolla las hipótesis de la investigación y plantea los modelos teóricos. Las técnicas estadísticas a utilizar se describen en el capítulo 6, donde también se analizan los resultados empíricos sobre los modelos desarrollados en el capítulo 5. El capítulo 7 expone las principales conclusiones de la investigación, sus limitaciones y propone nuevas líneas de investigación. La primera parte corresponde al capítulo 1, que introduce la investigación justificándola desde un punto de vista teórico y práctico. También se realiza una breve introducción a la teoría del comportamiento del consumidor desde una perspectiva clásica. Se presentan los principales modelos de adopción y se introducen los modelos de continuidad de utilización que se estudiarán más detalladamente en el capítulo 3. En este capítulo se desarrollan los objetivos principales y los objetivos secundarios, se propone el mapa mental de la investigación y se planifican en un cronograma los principales hitos del trabajo. La segunda parte corresponde a los capítulos dos, tres y cuatro. En el capítulo 2 se describe el comercio electrónico B2C en España utilizando fuentes secundarias. Se aborda un diagnóstico del sector de comercio electrónico y su estado de madurez en España. Posteriormente, se analizan las diferencias entre los compradores constantes, principal interés de este trabajo, frente a los compradores noveles, destacando las diferencias de perfiles y usos. Para los dos segmentos se estudian aspectos como el lugar de acceso a la compra, la frecuencia de compra, los medios de pago utilizados o las actitudes hacia la compra. El capítulo 3 comienza desarrollando los principales conceptos sobre la teoría del comportamiento del consumidor, para continuar estudiando los principales modelos de adopción de tecnología existentes, analizando con especial atención su aplicación en comercio electrónico. Posteriormente se analizan los modelos de continuidad en el uso de tecnologías (Teoría de la Confirmación de Expectativas; Teoría de la Justicia), con especial atención de nuevo a su aplicación en el comercio electrónico. Una vez estudiados los principales modelos de adopción y continuidad en el uso de tecnologías, el capítulo 4 analiza los principales factores que se utilizan en los modelos: calidad, valor, factores basados en la confirmación de expectativas –satisfacción, utilidad percibida– y factores específicos en situaciones especiales –por ejemplo, tras una queja– como pueden ser la justicia, las emociones o la confianza. La tercera parte –que corresponde al capítulo 5– desarrolla el diseño de la investigación y la selección muestral de los modelos. En la primera parte del capítulo se enuncian las hipótesis –que van desde lo general a lo particular, utilizando los factores específicos analizados en el capítulo 4– para su posterior estudio y validación en el capítulo 6 utilizando las técnicas estadísticas apropiadas. A partir de las hipótesis, y de los modelos y factores estudiados en los capítulos 3 y 4, se definen y vertebran dos modelos teóricos originales que den respuesta a los retos de investigación planteados en el capítulo 1. En la segunda parte del capítulo se diseña el trabajo empírico de investigación definiendo los siguientes aspectos: alcance geográfico–temporal, tipología de la investigación, carácter y ambiente de la investigación, fuentes primarias y secundarias utilizadas, técnicas de recolección de datos, instrumentos de medida utilizados y características de la muestra utilizada. Los resultados del trabajo de investigación constituyen la cuarta parte de la investigación y se desarrollan en el capítulo 6, que comienza analizando las técnicas estadísticas basadas en Modelos de Ecuaciones Estructurales. Se plantean dos alternativas, modelos confirmatorios correspondientes a Métodos Basados en Covarianzas (MBC) y modelos predictivos. De forma razonada se eligen las técnicas predictivas dada la naturaleza exploratoria de la investigación planteada. La segunda parte del capítulo 6 desarrolla el análisis de los resultados de los modelos de medida y modelos estructurales construidos con indicadores formativos y reflectivos y definidos en el capítulo 4. Para ello se validan, sucesivamente, los modelos de medida y los modelos estructurales teniendo en cuenta los valores umbrales de los parámetros estadísticos necesarios para la validación. La quinta parte corresponde al capítulo 7, que desarrolla las conclusiones basándose en los resultados del capítulo 6, analizando los resultados desde el punto de vista de las aportaciones teóricas y prácticas, obteniendo conclusiones para la gestión de las empresas. A continuación, se describen las limitaciones de la investigación y se proponen nuevas líneas de estudio sobre distintos temas que han ido surgiendo a lo largo del trabajo. Finalmente, la bibliografía recoge todas las referencias utilizadas a lo largo de este trabajo. Palabras clave: comprador constante, modelos de continuidad de uso, continuidad en el uso de tecnologías, comercio electrónico, B2C, adopción de tecnologías, modelos de adopción tecnológica, TAM, TPB, IDT, UTAUT, ECT, intención de continuidad, satisfacción, confianza percibida, justicia, emociones, confirmación de expectativas, calidad, valor, PLS. ABSTRACT Information and Communication Technologies in general, but more specifically those related to the Internet in particular, have changed the way in which we communicate, relate to one another, produce, and buy and sell products, reducing the time and shortening the distance between suppliers and consumers. The steady breakthrough of computers, Smartphones and landline and/or wireless broadband has been greatly reflected in its large scale use by both individuals and businesses. Business–to–consumer (B2C) e–commerce reached a volume of 9,114 million Euros in Spain in 2010, representing a 17.4% increase with respect to the figure in 2009. This growth is due in part to two different facts: an increase in the percentage of web users to 65.1% en 2010, 43.1% of whom have acquired products or services through the Internet– which constitutes 1.6 percentage points higher than 2010. On the other hand, the average spending by individual buyers rose to 831€ en 2010, constituting a 10.9% increase with respect to the previous year. If we select buyers according to whether or not they have previously made some type of purchase, we can divide them into two categories: the novice buyer–who first made online purchases in 2010– and the experienced buyer: who also made purchases in 2010, but had done so previously as well. The socio–demographic profile of the novice buyer is that of a young person between 15–24 years of age, with secondary studies, middle to lower–middle class, and a non–university educated student who resides in smaller towns and continues to use payment methods such as cash on delivery (23.9%). In 2010, their average purchase grew to 449€. The more experienced buyer, or someone who has previously made purchases online, has a different demographic profile: highly educated, upper class, resident and worker in larger cities, who exercises a mature behavior when making online purchases due to their experience– this type of buyer frequently uses exclusive channels on the Internet that don’t have an actual store. His or her average purchase doubles that of the novice buyer (with an average purchase of 930€ annually.) That said, the experienced buyers constitute the majority of buyers with an average purchase that doubles that of novice buyers. It is therefore of interest to study the factors that help to predict whether or not a web user will buy another product or use another service on the Internet. The answer to this question has proven not to be so simple. In Spain, the majority of goods and services are still bought in person, with a low amount of purchases being made through means such as the Home Shopping Network, through catalogues or Internet sales. To answer the questions that have been posed here, an investigation has been conducted which takes into consideration various viewpoints: it will begin with a descriptive study from the perspective of the supply and demand that characterizes the B2C e–commerce situation in Spain, focusing on the differences between experienced buyers and novice buyers. Subsequently, there will be an investigation concerning the technology acceptance and continuity of use of models as well as the factors that have an effect on their continuity of use –with a special focus on B2C electronic commerce–, which allows for a theoretic approach to the problem from the perspective of the structural equations being able to reach practical conclusions. This investigation follows the classic structure for a scientific investigation: the subject of the investigation is introduced (Chapter 1), then the state of the B2C e–commerce in Spain is described citing official sources of information (Chapter 2), the theoretical framework and state of the art of technology acceptance and continuity models are developed further (Chapter 3) and the main factors that affect their acceptance and continuity (Chapter 4). Chapter 5 explains the hypothesis behind the investigation and poses the theoretical models that will be confirmed or rejected partially or completely. In Chapter 6, the technical statistics that will be used are described briefly as well as an analysis of the empirical results of the models put forth in Chapter 5. Chapter 7 explains the main conclusions of the investigation, its limitations and proposes new projects. First part of the project, chapter 1, introduces the investigation, justifying it from a theoretical and practical point of view. It is also a brief introduction to the theory of consumer behavior from a standard perspective. Technology acceptance models are presented and then continuity and repurchase models are introduced, which are studied more in depth in Chapter 3. In this chapter, both the main and the secondary objectives are developed through a mind map and a timetable which highlights the milestones of the project. The second part of the project corresponds to Chapters Two, Three and Four. Chapter 2 describes the B2C e–commerce in Spain from the perspective of its demand, citing secondary official sources. A diagnosis concerning the e–commerce sector and the status of its maturity in Spain is taken on, as well as the barriers and alternative methods of e–commerce. Subsequently, the differences between experienced buyers, which are of particular interest to this project, and novice buyers are analyzed, highlighting the differences between their profiles and their main transactions. In order to study both groups, aspects such as the place of purchase, frequency with which online purchases are made, payment methods used and the attitudes of the purchasers concerning making online purchases are taken into consideration. Chapter 3 begins by developing the main concepts concerning consumer behavior theory in order to continue the study of the main existing acceptance models (among others, TPB, TAM, IDT, UTAUT and other models derived from them) – paying special attention to their application in e–commerce–. Subsequently, the models of technology reuse are analyzed (CDT, ECT; Theory of Justice), focusing again specifically on their application in e–commerce. Once the main technology acceptance and reuse models have been studied, Chapter 4 analyzes the main factors that are used in these models: quality, value, factors based on the contradiction of expectations/failure to meet expectations– satisfaction, perceived usefulness– and specific factors pertaining to special situations– for example, after receiving a complaint justice, emotions or confidence. The third part– which appears in Chapter 5– develops the plan for the investigation and the sample selection for the models that have been designed. In the first section of the Chapter, the hypothesis is presented– beginning with general ideas and then becoming more specific, using the detailed factors that were analyzed in Chapter 4– for its later study and validation in Chapter 6– as well as the corresponding statistical factors. Based on the hypothesis and the models and factors that were studied in Chapters 3 and 4, two original theoretical models are defined and organized in order to answer the questions posed in Chapter 1. In the second part of the Chapter, the empirical investigation is designed, defining the following aspects: geographic–temporal scope, type of investigation, nature and setting of the investigation, primary and secondary sources used, data gathering methods, instruments according to the extent of their use and characteristics of the sample used. The results of the project constitute the fourth part of the investigation and are developed in Chapter 6, which begins analyzing the statistical techniques that are based on the Models of Structural Equations. Two alternatives are put forth: confirmatory models which correspond to Methods Based on Covariance (MBC) and predictive models– Methods Based on Components–. In a well–reasoned manner, the predictive techniques are chosen given the explorative nature of the investigation. The second part of Chapter 6 explains the results of the analysis of the measurement models and structural models built by the formative and reflective indicators defined in Chapter 4. In order to do so, the measurement models and the structural models are validated one by one, while keeping in mind the threshold values of the necessary statistic parameters for their validation. The fifth part corresponds to Chapter 7 which explains the conclusions of the study, basing them on the results found in Chapter 6 and analyzing them from the perspective of the theoretical and practical contributions, and consequently obtaining conclusions for business management. The limitations of the investigation are then described and new research lines about various topics that came up during the project are proposed. Lastly, all of the references that were used during the project are listed in a final bibliography. Key Words: constant buyer, repurchase models, continuity of use of technology, e–commerce, B2C, technology acceptance, technology acceptance models, TAM, TPB, IDT, UTAUT, ECT, intention of repurchase, satisfaction, perceived trust/confidence, justice, feelings, the contradiction of expectations, quality, value, PLS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN Los procesos de diseño de zonas o diseño del territorio implican la partición de un espacio geográfico, organizado en un conjunto de unidades de área, en diferentes regiones o zonas según un conjunto especifico de criterios que varían en función del campo de aplicación. En la mayoría de los casos, el objetivo fundamental consiste en crear zonas de tamaño aproximadamente igual respecto a uno o varios atributos de medida -de carácter cuantitativo- (zonas con igual número de habitantes, igual promedio de ventas...). Sin embargo, están apareciendo nuevas aplicaciones, algunas en el contexto de las políticas de desarrollo sostenible, cuya finalidad es la definición de regiones con un tamaño predeterminado, no necesariamente similar. Además, en estos casos las zonas han de formarse en torno a un conjunto específico de posiciones, semillas o generadores. Este tipo de particiones no han sido lo suficientemente investigadas, de manera que no se conocen modelos de solución para la delimitación automática de las zonas. En esta tesis se ha diseñado un nuevo método basado en una versión discreta del diagrama de Voronoi con peso aditivo adaptativo (DVPAA), que permite la partición de un espacio bidimensional en zonas de un tamaño específico, considerando tanto la posición como el peso de cada uno de los generadores. El método consiste en resolver repetidamente un tradicional diagrama de Voronoi con peso aditivo, de forma que los pesos de cada generador se actualizan en cada iteración. En el proceso de cálculo de distancias se usa una métrica basada en el camino más corto, lo que garantiza que la partición obtenida esté formada por un conjunto de zonas conexas. La heurística diseñada se integra en una aplicación prototipo, desarrollada en un entorno SIG (Sistemas de Información Geográfica), que permite el trazado automático de zonas según los criterios anteriormente expuestos. Para analizar la viabilidad del método se ha utilizado como caso de estudio la gestión de los recursos pastorales para la ganadería extensiva en tres municipios de Castilla-La Mancha. Las pruebas realizadas ponen de manifiesto que la heurística diseñada, adaptada a los criterios que se plantean en el contexto de la gestión de sistemas extensivos agropecuarios, es válida para resolver este tipo de problemas de partición. El método propuesto se caracteriza por su eficacia en el tratamiento de un gran número de unidades superficiales en formato vectorial, generando soluciones que convergen con relativa rapidez y verifican los criterios establecidos. En el caso estudiado, aunque la posición prefijada de los generadores reduce considerablemente la complejidad del problema, existen algunas configuraciones espaciales de estos elementos para las que el algoritmo no encuentra una solución satisfactoria, poniéndose de manifiesto una de las limitaciones de este modelo. Tal y como se ha podido comprobar, la localización de los generadores puede tener un considerable impacto en la zonificación resultante, por lo que, de acuerdo con Kalcsics et al. (2005), una selección "inadecuada" difícilmente puede generar regiones válidas que verifiquen los criterios establecidos. ABSTRACT Tenitory or zone design processes entail partitioning a geographic space, organized as a set of basic areal units, into different regions or zones according to a specific set of entena that are dependent on the application context. In most cases the aim is to create zones that have approximately equal sizes with respect to one or several measure attributes (zones with equal numbers of inhabitants, same average sales, etc). However, some of the new applications that have emerged, particularly in the context of sustainable development policies, are aimed at defining zones of a predetermined, though not necessarily similar, size. In addition, the zones should be built around a given set of positions, seeds or generators. This type of partitioning has not been sufñciently researched; therefore there are no known approaches for automated zone delimitation. This thesis proposes a new method based on a discrete versión of the Adaptive Additively Weighted Voronoi Diagram (AAWVD) that makes it possible to partition a 2D space into zones of specific sizes, taking both the position and the weight of each (seed) generator into account. The method consists of repeatedly solving a traditional additively weighted Voronoi diagram, so that the weights of each generator are updated at every iteration. The partition s zones are geographically connected nsing a metric based 011 the shortest path. The proposed heuristic lias been included in an application, developed in a GIS environment that allows the automated zone delimitation according to the mentioned criteria. The management of the extensive farming system of three municipalities of Castilla-La Mancha (Spain) has been used as study case to analyze the viability of the method. The tests carried out have established that the proposed method, adapted to the criteria of this application field, is valid for solving this type of partition problem. The applied algorithm is capable of handling a high number of vector areal units, generating solutions that converge in a reasonable CPU time and comply with the imposed constraints. Although the complexity of this problem is greatly reduced when the generator's positions are fixed, in many cases, these positions impose a spatial confignration that the algorithm proposed is unable to solve, thus revealing one of the limitations of this method. It has been shown that the location of the generators has a considerable impact on the final solution, so that, as Kalcsics et al. (2005) observed, an "inadequate" selection can hardly generate valid zones that comply with the established criteria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo general de esta Tesis Doctoral ha sido tratar de mejorar los parámetros reproductivos de las conejas primíparas lactantes, empleando dos métodos de manejo (destete temprano y extensificación del ritmo reproductivo), que están directamente relacionados con su balance energético. Para ello, se diseñaron 2 experimentos en este tipo de hembras. En el primero, se estudió el efecto del destete a 25 días post-parto (dpp) sobre la actividad ovárica y el metabolismo energético de las conejas una semana más tarde (32 dpp). Un total de 34 primíparas lactantes con 8 gazapos fueron distribuidas en tres grupos: 10 conejas se sacrificaron a los 25 dpp (grupo L25), 13 fueron destetadas a los 25 dpp y sacrificadas a los 32 dpp (grupo NL32), y 11 conejas no se destetaron y fueron sacrificadas a los 32 dpp (grupo L32). No se observaron diferencias significativas entre grupos en el peso corporal, el peso del ovario, ni en las concentraciones séricas de ácidos grasos no esterificados y de proteínas totales. A pesar de que el grupo NL32 presentó un bajo consumo de alimento (122 ± 23,5 g / día, p <0,001), su contenido corporal estimado de lípidos (16,9 ± 1,09%, P <0,008), proteínas (19,7 ± 0,07%, P <0,0001), y energía (1147 ± 42,7 MJ / kg, p <0,006) fueron más elevados y las concentraciones séricas de glucosa (158 ± 24,5 mg/dl, p <0,04) más bajas que en los grupos L25 (11,9 ± 1,3%, 18,5 ± 0,08%, 942 ± 51,3 MJ/kg y 212 ± 27,9 mg/dl) y L32 (13,4 ± 1,03%, 18,5 ± 0,1%, 993 ± 40,4 MJ/kg y 259 ± 29,5 mg/dl), respectivamente. En el grupo L25 se observó un menor número medio de folículos ≥ 1 mm en la superficie ovárica en comparación con los grupos NL32 y L32 (12,7 ± 1,5 vs. 18,0 ± 1,45 y 17,6 ± 1,67, p <0,05). La población folicular ovárica en las secciones histológicas y la inmunolocalización de los receptores de prolactina fueron similares en todos los grupos. En el grupo L25, tanto la maduración nuclear de oocitos, medida en términos de tasas alcanzadas de Metafase II (67,0 vs. 79,7 y 78,3%, P <0.05) y la maduración citoplasmática, medida por el porcentaje de gránulos corticales (GC) total o parcialmente migrados en los oocitos, fueron significativamente menores que en los grupos NL32 y L32 (16,0 vs 38,3 y 60,0%, P <0.05). En conclusión, a pesar de que el destete precoz a 25 dpp pareció mejorar las reservas de energía de las conejas primíparas, este hecho no se reflejó claramente a nivel ovárico a los 32 dpp y fue similar independientemente del destete, por lo que éste último podría llevarse a cabo más tarde. En el segundo experimento, se compararon dos ritmos reproductivos. Se utilizaron un total de 48 conejas primíparas lactantes con 8 gazapos que se asignaron al azar en dos grupos experimentales: a) lactantes sacrificadas a comienzos del post-parto (11 dpp) de acuerdo a un ritmo semi-intensivo (n = 24), y b) lactantes sacrificadas al final del período post-parto (25 dpp) de acuerdo con un ritmo más extensivo (n = 24). En ellas, se estudió el peso vivo, la composición corporal estimada, parámetros metabólicos y endocrinos (estradiol y progesterona) y características ováricas como la población folicular y la tasa de atresia, así como la maduración nuclear y citoplásmica de los oocitos. En este estudio, el peso vivo, el contenido de energía corporal, los depósitos grasos y los ácidos grasos no esterificados disminuyeron a lo largo del post-parto con respecto al momento del parto (P <0,05). Las concentraciones séricas de proteínas y glucosa aumentaron en el mismo periodo post-parto (P <0,05). Se observaron similares niveles de estradiol y progesterona en ambos ritmos, así como una población folicular, tasas de maduración nuclear (tasa de oocitos en metafase II) y citoplasmática (porcentaje de oocitos con gránulos corticales migrados), similares en ambos momentos del post-parto. Sin embargo, el número de folículos preovulatorios en la superficie ovárica fue menor (P <0,05) y la tasa de atresia tendió a ser mayor con un porcentaje también menor de folículos sanos (P <0,1) en los ovarios de las hembras sometidas al ritmo extensivo. En conclusión, al final del post-parto (25 días), las conejas primíparas sin destetar muestran un deterioro de sus reservas corporales, de sus parámetros metabólicos séricos y de la calidad de sus oocitos; incluso se ha observado una ligera influencia negativa en el desarrollo de sus folículos ováricos. Por esta razón, se considera que en las conejas primíparas lactantes el manejo reproductivo extensivo (25 dpp) no presenta ninguna ventaja en comparación con el semi-intensivo (11 dpp). A la vista de los resultados de estos dos experimentos, podemos decir que ni el destete temprano, ni la extensificación del ritmo reproductivo han conseguido una mejora en los parámetros reproductivos de una hembra primípara. Por ello, son necesarios más estudios sobre el estado metabólico de la coneja primípara lactante para conseguir métodos o estrategias que lo mejoren y tengan consecuencias directas sobre la actividad reproductiva y sobre su éxito productivo. The general aim of this Thesis was to study two management methods (early weaning and extensive reproductive rhythm) linked to the energy balance of the primiparous rabbit does to improve their reproductive performance. In this sense, 2 experiments were conducted using this kind of females. In the first experiment, the effect of weaning at 25 days post-partum (dpp) on ovarian activity and energetic metabolism one week later (32 dpp) was studied. A total of 34 primiparous lactating rabbit does were used and distributed among three groups: 10 does euthanized at 25 dpp (group L25), 13 does weaned at 25 dpp and euthanized at 32 dpp (group NL32), and 11 non weaned does euthanized at 32 dpp (group L32). No significant differences were observed in live body weight, ovary weight, serum non esterified fatty acids (NEFA) and total protein concentration among groups. Although NL32 does had a low feed intake (122±23.5 g/Day; P < 0.001), their estimated lipids (16.9±1.09%, P < 0.008), protein (19.7±0.07%, P < 0.0001), and energy (1147±42.7 MJ/kg, P < 0.006) body contents were higher and their serum glucose concentrations (158±24.5 mg/dl, P < 0.04) were lower compared to L25 does (11.9±1.3%, 18.5±0.08%, 942±51.3 MJ/kg and 212±27.9 mg/dl) and L32 does (13.4±1.03%, 18.5±0.1%, 993±40.4 MJ/kg and 259±29.5 mg/dl, respectively). A lower number of follicles ≥1mm was observed compared to NL32 and L32 groups (12.7±1.5 vs. 18.0±1.45 and 17.6 ±1.67; P < 0.05) in the ovarian surface of L25 does. Follicular population in the histological ovarian sections and immunolocalization of prolactin receptor were similar in all groups. In group L25, both nuclear maturation of oocytes in terms of Metaphase II rate (67.0 vs. 79.7 and 78.3%; P < 0.05) and cytoplasmic maturation measured by percentage of cortical granules (CG), totally or partially migrated in oocytes were significantly lower than in groups NL32 and L32 (16.0 vs. 38.3 and 60.0%; P < 0.05). Consequently, a higher rate of oocytes with non-migrated CGs was found in group L25 than in groups NL32 and L32 (76.0 vs. 46.8 and 33.3%; P < 0.05). In conclusion, even though early weaning at 25 dpp seemed to improve body energy stored in primiparous does, this fact was not well reflected on the ovarian status at 32 dpp, which was similar regardless of weaning time. In the second experiment, two reproductive rhythms were compared. A total of 48 primiparous Californian x New Zealand White rabbit does suckling 8 kits were randomly allocated in two experimental groups: a) lactating does euthanized at early post-partum period (11 dpp) according to a semi-intensive rhythm (n = 24), and b) lactating does euthanized on later post-partum period (25 dpp) according to a more extensive rhythm (n = 24). Live weight, estimated body composition, serum metabolic and endocrine parameters (oestradiol and progesterone concentrations) and ovarian features like follicle population and atresia rate, and oocyte maturation were studied. Live weight, body energy content, lipid depots and serum non esterified fatty acids (NEFA) concentrations diminished from parturition time to post-partum period (P < 0.05). In addition, serum protein and glucose concentrations increased along postpartum time (P < 0.05). Similar oestradiol and progesterone levels were shown in rhythms as well as similar follicle population and nuclear and cytoplasmic maturation rates measured as metaphase II and cortical granule migration, respectively in both postpartum times. However, number of preovulatory follicles on the ovarian surface was lower (P < 0.05) and atresia rate tended to be higher with also lower percentage of healthy follicles (P < 0.1) in ovaries of females of extensive group. In conclusion, primiparous non-weaned rabbits does at late post-partum time (25 days), Did no show any improvement regarding body reserves, serum metabolic parameters and oocyte quality; even a slight negative influence has been observed in the development of their ovarian follicles. Thus this reproductive management does not present any advantage compared to earlier post-partum (11 days) reproductive rhythm. In summary, according to the obtained results from these two experiments, we can say that the application of early weaning and the extensive rhythms did not achieve an improvement in the reproductive performance of primiparous does. Thus, it is necessary to conduct more studies about the metabolic status of the primiparous lactating doe to achieve strategies in order to improve it and consequently, to improve the reproductive activity and their productive success.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cada vez juegan un rol más relevante en nuestra vida las tecnologías de información, desde nuestros hogares hasta las empresas y gobiernos acceden a grandes volúmenes de datos e información, las comunicaciones ya no tienen impedimentos de distancias, un comprador y un vendedor puede estar en cualquier lugar, un producto que es adquirido en un comercio en Santiago a través de un medio de pago (tarjeta de crédito) en menos de un segundo la transacción va desde Chile a solicitar autorización en Singapur para ser aprobada. En la sociedad tanto oferentes como demandantes cuentan con información disponible en línea para la toma de decisiones. Existe una mayor apertura e integración económica iniciada con las redes comerciales, donde existen enfoques regionales y multilateral, que han impulsado la apertura del comercio y la integración económica. Son múltiples los tratados de libre comercio que apoyan al desarrollo económico, donde las crisis mundiales han afectado tanto las economías como el transporte, considerando que en el comercio internacional cerca del 90% se desarrolla a través de los puertos, es importante identificar relaciones entre el desarrollo de los medios de pago y el comercio electrónico a través de los puertos. Nuestra investigación busca integrar tanto aspectos de investigación científica como como investigación aplicada, de modo que sea un aporte al día a día de empresas en el sector de los medios de pago en Chile y quienes diseñan y definen la aplicación de normas y estándares. Esta tesis plantea una metodológica para analizar las relaciones entre la aplicación de estándares y sus efectos en la industria de los medios de pago en Chile. Este trabajo de investigación nos permitirá identificar entorno, variables que intervienen y evolución del mercado de los medios de pago, a través de un relevamiento del estado del arte de los medios de Pago en la industria Bancaria chilena. Buscaremos en el mercado de los medios de pago en la industria Chilena - sector Bancario, relaciones entre la aplicación de estándares y sus efectos en los volúmenes transaccionales, analizaremos las tendencias de los medios de pago y el desarrollo comercial del Puerto de Valparaíso. Se busca a través de esta metodológica poder mejorar la toma de decisiones en la industria de los medios de pago en Chile con una mejor gestión y uso de recursos. Every day information technology plays a greater role in our lives, from our homes to businesses, to how governments access large volumes of data and information. Communication is no longer hindered by distances, as a buyer and seller can be anywhere. A product that is purchased in a shop in Santiago through a payment option (credit card) in less than a second, a transaction will request authorization from Chile to Singapore to be approved. In this society both buyers and sellers have access to online information that is available for decision making. There is greater openness and economic integration that has begun within the commercial networks, in which there are regional and multilateral approaches that has helped expand trade and economic integration. Likewise, there are numerous free trade agreements that support economic development; however, the global crisis has affected economies like transportation. In regards to international commerce about 90% is developed through the ports, considering that the former is important to identify the relationships between the development of the payment options and e-commerce at the ports. Our research aims to integrate both the scientific research and applied research aspects, so that this will be a contribution to the day to day business for the payment options in Chile, and for those who design and define the application of norms and standards. This thesis offers a methodology to analyze the relationships between the application of standards and its affects in the industry of payment options in Chile. This research will allow us to identify the environmental variables that intervene and evolve the market of the payment options, through the analysis of the state of the art in the payment options in the Chilean Banking industry. In the market of the payment industry options we have looked specifically at the Chilean Banking industry and the relationship between the application of standards and their impact on transaction volumes. In addition, there has been an analysis of the activity of the payment options and wire transfers in the maritime industry in Valparaíso in order to define the feasibility of a model that allows us to relate these effects in these markets and the application of standards. We have searched the Chilean banking industry for the relationships between the application of standards and its effect on transaction volumes, in order to analyze the trends in the payment options and the commercial development at the Port of Valparaiso. Therefore, through the use of this methodology we look to be able to make better decisions in the payment options industry in Chile, with better management and use of the resources.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo aborda el aprovechamiento de algunos subproductos agrícolas (bagazo de maguey y fibra de coco) y forestales (corteza de pino) en el Estado de Oaxaca (Sur de México). El objetivo principal se centra en localizar, cuantificar y caracterizar estos con vistas a su aplicación como sustratos o componentes de sustratos en cultivos ornamentales, forestales y hortícolas, y a su uso como enmiendas en cultivos tipo. Así mismo se persigue reducir el uso de la turba y la tierra de monte como sustratos mayoritarios en la actualidad. Para la localización de los subproductos se utilizaron los datos de los registros parcelarios de los productores de coco para la obtención de copra (generadores de fibra de coco) de la región costa y de los productores de mezcal (generadores del residuo de bagazo de maguey) de la región valles centrales, así como las ubicaciones de los aserraderos forestales en el Estado de Oaxaca. Se emplea un Sistema de Información Geográfica (SIG) con una cartografía digitalizada de los elementos del medio (clima, geología y suelo), de los cultivos generadores (bagazo de maguey, fibra de coco y corteza de pino), de la agricultura protegida como receptora (tomate) y de la agricultura extensiva con cultivos receptores de enmienda (café, hule, limón, mango, palma de coco y maguey). La producción anual de los residuos se cartografía y cuantifica con los siguientes resultados: bagazo de maguey 624.000 t, fibra de coco 86.000 m3 y 72.000 t de corteza de pino. Mediante el estudio de las características de los suelos de los cultivos receptores y de los requerimientos de materia orgánica de cada cultivo se calcularon las necesidades totales de materia orgánica para cada suelo. Los resultados de las cantidades globales para cada cultivo en todo el Estado muestran una necesidad total de 3.112.000 t de materia orgánica como enmienda. Con los datos obtenidos y a través de un algoritmo matemático se realiza una propuesta de localización de dos plantas de compostaje (de bagazo de maguey y fibra de coco) y cuatro plantas de compostaje de corteza de pino. Con el fin de conocer los subproductos a valorizar como sustrato o componente de sustrato se caracteriza su composición física‐química, siguiendo Normas UNE‐EN, y se analizan mediante Resonancia Magnética Nuclear (RMN). Para el acondicionamiento de bagazo de maguey y la corteza de pino se realizaron ensayos de compostaje. Al final de 241 días la temperatura y la humedad de ambos procesos se encontraban en los rangos recomendados, indicando que los materiales estaban estabilizados y con calidad para ser utilizados como sustrato o componente de sustrato. Para la fibra de coco se realizó el proceso de molienda en seco de conchas de coco provenientes de la comunidad de Río Grande Oaxaca (Principal zona productora de copra en Oaxaca). Posteriormente se emplean los materiales obtenidos como componentes para sustratos de cultivo. Se estudia el compost de bagazo de maguey y siete mezclas; el compost de corteza de pino y ocho mezclas y la fibra de coco con tres mezclas. Estos sustratos alternativos permiten obtener mezclas y reducir el uso de la tierra de monte, turba, arcilla expandida y vermiculita, siendo por tanto una alternativa sostenible para la producción en invernadero. Se elaboraron mezclas especificas para el cultivo de Lilium hibrido asiático y oriental (siete mezclas), sustratos eco‐compatibles para cultivo de tomate (nueve mezclas), para la producción de planta forestal (siete mezclas) y para la producción de plántula hortícola (ocho mezclas). Como resultados más destacados del bagazo de maguey, corteza de pino y las mezclas obtenidas se resume lo siguiente: el bagazo de maguey, con volúmenes crecientes de turba (20, 30, 50 y 60 %) y la corteza de pino, con volúmenes de turba 40 y 60%, presentan valores muy recomendados de porosidad, capacidad de aireación, capacidad de retención de humedad y equilibrio agua‐aire. Para la fibra de coco, la procedente de Río Grande presenta mejor valoración que la muestra comercial de fibra de coco de Morelos. Por último se llevó a cabo la evaluación agronómica de los sustratos‐mezclas, realizando cinco experimentos por separado, estudiando el desarrollo vegetal de cultivos tipo, que se concretan en los siguientes ensayos: 1. Producción de Lilium asiático y oriental en cama para flor de corte; 2. Producción de Lilium oriental en contenedor para flor de corte; 3. Producción de plántula forestal (Pinus greggii E y Pinus oaxacana M); 4. Producción de tomate (Solanum lycopersicum L) y 5. Producción de plántula de tomate en semillero (Solanum lycopersicum L). En relación a la producción de Lilium hibrido asiático en cama los sustratos corteza de pino (CPTU 80:20 v/v), corteza de pino + sustrato comercial (CPSC 80:20 v/v) y corteza de pino+turba+arcilla expandida+vermiculita (CPTAEV2 30:40:15:15 v/v) presentan los mejores resultados. Dichos sustratos también presentan adecuados resultados para Lilium hibrido oriental con excepción de la corteza de pino + turba (CPTU 80:20 v/v). En la producción de Lilium hibrido oriental en contenedor para flor de corte, además de los sustratos de CPSC y CPTAEV2, la mezcla de corteza de pino+turba+arcilla expandida+vermiculita (CPTAEV 70:20:5:5 v/v) manifestó una respuesta favorable. En el ensayo de producción de plántulas de Pinus greggii E y Pinus oaxacana Mirov, las mezclas con corteza de pino+turba+arcilla expandida+vermiculita (CPTAEV2 30:40:15:15 v/v) y bagazo de maguey turba+arcilla expandida+vermiculita (BMTAEV2 30:60:5:5 v/v) son una alternativa que permite disminuir el empleo de turba, arcilla expandida y vermiculita, en comparación con el sustrato testigo de turba+arcilla expandida+vermiculita (TAEV 60:30:10 v/v). En la producción de tomate (Solanum lycopersicum L) frente a la utilización actual del serrín sin compostar (SSC), las mezclas alternativas de bagazo de maguey+turba (BMT 70:30 v/v), fibra de coco de Río Grande (FCRG 100v/v) y corteza de pino+turba (CPT 70:30 v/v), presentaron los mejores resultados en rendimientos. Así mismo, en la producción de plántulas de tomate las dos mezclas alternativas de bagazo de maguey+turba+ arcilla expandida+vermiculita (BMTAEV5 50:30:10:10 v/v) y (BMTAEV6 40:40:10:10 v/v) presentaron mejores resultados que los obtenidos en la mezcla comercial (Sunshine 3), mayoritariamente utilizada en México en la producción de plántula de tomate y hortícola. ABSTRACT This paper addresses the use of some agricultural products (maguey bagasse and coconut fiber) and forestry (pine bark) in the State of Oaxaca (southern Mexico). The principal purpose is to locate, quantify and characterize these with the idea of applying them as substrates or substrate components in ornamental crops, forestry, horticultural, and their use as crop amendments. On the other hand, the reduction of peat and forest soil as main substrates is pursued. For the location of the products, registry parcel data from copra producers (coconut fiber generators) of the coastal region and mescal producers (maguey bagasse residue generators) of the central valleys region, as well as the locations of forest mills in the State of Oaxaca. A Geographic Information System (GIS) with digital mapping of environmental factors (climate, geology and soil), crop generators of residues (maguey bagasse, coconut and pine bark) receptors of amendments such as protected agriculture (tomato) and extensive agriculture crops (coffee, rubber, lemon, mango, coconut and agave). The annual production of waste is mapped and quantified with the following results: 624,000t maguey bagasse, coconut fiber 72,000 m3 and 86,000 t of pine bark. Through the study of receiving crops soils properties of and organic matter requirements of each crop, total needs of organic matter for each soil were estimated. The results of the total quantities for each crop across the state show a total of 3,112,000 t of organic matter needed as amendment. Using that data and a mathematical algorithm, the location of two composting plants (agave bagasse and coconut fiber) and four composting plants pine bark was proposed. In order to know the by‐products that were going to be used as substrates or substrate components, their physical‐chemical composition was analyzed following UNE‐EN technics. Furthermore they were analyzed by Nuclear Magnetic Resonance (NMR). For conditioning of maguey bagasse and pine bark, composting essays were conducted. At the end of 241 days the temperature and humidity of both processes were at the recommended ranges, indicating that the materials were stabilized and had reached the quality to be used as a substrate or substrate component. Coconut shells from the community of Rio Grande Oaxaca (Main copra producing area in Oaxaca) were put through a process of dry milling. Subsequently, the obtained materials were used as components for growing media. We studied the maguey bagasse compost and seven mixtures; the pine bark compost and eight blends and coconut fiber with three mixtures. These alternative substrates allow obtaining mixtures and reduce the use of forest soil, peat, vermiculite and expanded clay, making it a sustainable alternative for greenhouse production. Specific mixtures were prepared for growing Lillium, Asian and eastern hybrids (seven blends), eco‐compatible substrates for tomato (nine mixtures), for producing forest plant (seven mixtures) and for the production of horticultural seedlings (eight mixtures). Results from maguey bagasse, pine bark and mixtures obtained are summarized as follows: the maguey bagasse, with increasing volumes of peat (20, 30, 50 and 60%) and pine bark mixed with 40 and 60% peat by volume, have very recommended values of porosity, aeration capacity, water retention capacity and water‐air balance. Coconut fiber from Rio Grande had better quality than commercial coconut fiber from Morelos. Finally the agronomic evaluation of substrates‐mixtures was carried out conducting five experiments separately: 1. Production of Asiatic and Eastern Lilium in bed for cut flower, 2. Production of oriental Lillium in container for cut flower, 3.Production of forest seedlings (Pinus greggii E and Pinus oaxacana M), 4. Production of tomato (Solanum lycopersicum L) and 5. Tomato seedling production in seedbed (Solanum lycopersicum L). In relation to the production of hybrid Asian Lilium in bed, pine bark substrates (CPTU 80:20 v/v), pine bark + commercial substrate (CPSC 80:20 v/v) and pine bark + peat + expanded clay + vermiculite (CPTAEV2 30:40:15:15 v/v) showed the best results. Such substrates also have adequate results for Lilium Oriental hybrid except pine bark + peat (CPTU 80:20 v / v). In the production of Lilium oriental hybrid container for cut flower, besides the CPSC and CPTAEV2 substrates, the mixture of pine bark + peat + vermiculite expanded clay (CPTAEV 70:20:5:5 v / v) showed a favorable response. In the production of Pinus greggii E and Pinus oaxacana Mirov seedlings trial, mixtures with pine bark + peat + expanded clay + vermiculite (CPTAEV2 30:40:15:15 v/v) and maguey bagasse+ peat+ expanded clay + vermiculite (BMTAEV2 30:60:5:5 v / v) are an alternative which allows reducing the use of peat, vermiculite and expanded clay in comparison with the control substrate made of peat + expanded clay+ vermiculite (60:30 TAEV: 10 v/v). In the production of tomato (Solanum lycopersicum L), alternative mixes of maguey bagasse + peat (BMT 70:30 v/v), coconut fiber from Rio Grande (FCRG 100 v / v) and pine bark + peat (CPT 70:30 v / v) showed the best results in yields versus the current use of sawdust without compost (SSC). Likewise, in the production of tomato seedlings of the two alternative mixtures maguey bagasse + peat expanded clay + vermiculite (BMTAEV5 50:30:10:10 v/v) and (BMTAEV6 40:40:10:10 v/v) had better results than those obtained in the commercial mixture (Sunshine 3), mainly used in Mexico in tomato seedling production and horticulture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha estudiado la determinación de especies de arsénico y de contenidos totales de arsénico y metales pesados, específicamente cadmio, cromo, cobre, níquel, plomo y cinc, en muestras de interés medioambiental por su elevada capacidad acumuladora de metales, concretamente algas marinas comestibles y plantas terrestres procedentes de suelos contaminados por la actividad minera. La determinación de contenidos totales se ha llevado a cabo mediante espectrometría de emisión atómica con plasma de acoplamiento inductivo (ICP‐AES), así como por espectrometría de fluorescencia atómica con generación de hidruros (HG‐AFS), para bajos contenidos de arsénico. Las muestras fueron mineralizadas en medio ácido y calentamiento en horno de microondas. Los métodos fueron validados a través de su aplicación a materiales de referencia de matriz similar a la de las muestras, certificados en contenidos totales de los elementos seleccionados. Los resultados obtenidos mostraron su elevada capacidad de bioabsorción, especialmente en relación a los elevados contenidos de arsénico encontrados en algunas especies de algas pardas (Phaeophytas). En las plantas, se calcularon los factores de translocación, acumulación y biodisponibilidad de los elementos estudiados, permitiendo identificar a la especie Corrigiola telephiifolia como posible acumuladora de plomo e hiperacumuladora de arsénico. La determinación de especies de arsénico hidrosolubles en las muestras objeto de estudio, se llevó a cabo por cromatografía líquida de alta eficacia (HPLC) acoplado a ICP‐AES, HG‐ICP‐AES y HG‐AFS, incluyendo una etapa previa de foto‐oxidación. Los métodos desarrollados, mediante intercambio aniónico y catiónico, permitieron la diferenciación de hasta once especies de arsénico. Para el análisis de las muestras, fue necesaria la optimización de métodos de extracción, seleccionándose la extracción asistida por microondas (MAE) con agua desionizada. Asimismo, se realizaron estudios de estabilidad de arsénico total y de las especies hidrosolubles presentes en las algas, tanto sobre la muestra sólida como en sus extractos acuosos, evaluando las condiciones de almacenamiento adecuadas. En el caso de las plantas, la aplicación del diseño factorial de experimentos permitió optimizar el método de extracción y diferenciar entre las especies de arsénico presentes en forma de iones sencillos de mayor movilidad y el arsénico más fuertemente enlazado a componentes estructurales. Los resultados obtenidos permitieron identificar la presencia de arseniato (As(V)) y arsenito (As(III)) en las plantas, así como de ácido monometilarsónico (MMA) y óxido de trimetilarsina (TMAO) en algunas especies. En la mayoría de las algas se encontraron especies tóxicas, tanto mayoritarias (arseniato) como minoritarias (ácido dimetilarsínico (DMA)), así como hasta cuatro arsenoazúcares. Los resultados obtenidos y su estudio a través de la legislación vigente, mostraron la necesidad de desarrollar una reglamentación específica para el control de este tipo de alimentos. La determinación de especies de arsénico liposolubles en las muestras de algas se llevó a cabo mediante HPLC, en modo fase inversa, acoplado a espectrometría de masas con plasma de acoplamiento inductivo (ICP‐MS) y con ionización por electrospray (ESI‐MS), permitiendo la elucidación estructural de estos compuestos a través de la determinación de sus masas moleculares. Para ello, fue necesaria la puesta a punto de métodos extracción y purificación de los extractos. La metodología desarrollada permitió identificar hasta catorce especies de arsénico liposolubles en las algas, tres de ellas correspondientes a hidrocarburos que contienen arsénico, y once a arsenofosfolípidos, además de dos especies desconocidas. Las masas moleculares de las especies identificadas fueron confirmadas mediante cromatografía de gases acoplada a espectrometría de masas (GC‐MS) y espectrometría de masas de alta resolución (HR‐MS). ABSTRACT The determination of arsenic species and total arsenic and heavy metal contents (cadmium, chromium, cooper, nickel, lead and zinc) in environmental samples, with high metal accumulator capacity, has been studied. The samples studied were edible marine algae and terrestrial plants from soils polluted by mining activities. The determination of total element contents was performed by inductively coupled plasma atomic emission spectrometry (ICP‐AES), as well as by hydride generation atomic fluorescence spectrometry (HG‐AFS) for low arsenic contents. The samples studied were digested in an acidic medium by heating in a microwave oven. The digestion methods were validated against reference materials, with matrix similar to sample matrix and certified in total contents of the elements studied. The results showed the high biosorption capacity of the samples studied, especially regarding the high arsenic contents in some species of brown algae (Phaeophyta division). In terrestrial plants, the translocation, accumulation and bioavailability factors of the elements studied were calculated. Thus, the plant species Corrigiola telephiifolia was identified as possible lead accumulator and arsenic hyperaccumulator. The determination of water‐soluble arsenic species in the samples studied was carried out by high performance liquid chromatography (HPLC) coupled to ICP‐AES, HG‐ICP‐AES and HG‐AFS, including a prior photo‐oxidation step. The chromatographic methods developed, by anion and cation exchange, allowed us to differentiate up to eleven arsenic species. The sample analysis required the optimization of extraction methods, choosing the microwave assisted extraction (MAE) with deionized water. On the other hand, the stability of total arsenic and water‐soluble arsenic species in algae, both in the solid samples and in the water extracts, was studied, assessing the suitable storage conditions. In the case of plant samples, the application of a multivariate experimental design allowed us to optimize the extraction method and differentiate between the arsenic species present as simple ions of higher mobility and the arsenic more strongly bound to structural components. The presence of arsenite (As(III)) and arsenate (As(V)) was identified in plant samples, as well as monomethylarsonic acid (MMA) and trimethylarsine oxide (TMAO) in some cases. Regarding algae, toxic arsenic species were found in most of them, both As(V) and dimethylarsinic acid (DMA), as well as up to four arsenosugars. These results were discussed according to the current legislation, showing the need to develop specific regulations to control this kind of food products. The determination of lipid‐soluble arsenic species in alga samples was performed by reversed‐phase HPLC coupled to inductively coupled plasma and electrospray mass spectrometry (ICP‐MS and ESI‐MS), in order to establish the structure of these compounds by determining the corresponding molecular masses. For this purpose, it was necessary to develop an extraction method, as well as a clean‐up method of the extracts. The method developed permitted the identification of fourteen lipid‐soluble arsenic compounds in algae, corresponding to three arsenic‐hydrocarbons and eleven arsenosugarphospholipids, as well as two unknown compounds. Accurate mass measurements of the identified compounds were performed by gas chromatography coupled to mass spectrometry (GC‐MS) and high resolution mass spectrometry (HR‐MS).