61 resultados para CASOS EN MERCADEO

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La educación en alternancia, muy difundida en niveles no universitarios, tiene sólo unas décadas de vida en las universidades de Europa y Norteamérica. Desde 2001, varias instituciones que demandaban una educación superior para sus profesores rurales de secundaria, promueven proyectos de formación universitaria en diversos países latinoamericanos. Los resultados son muy satisfactorios. Por un lado, la Universidad trabaja en partenariado con otros actores en una colaboración poco frecuente en el ámbito académico. Por otro, se realizan innovaciones educativas que permiten a los estudiantes–adultos con experiencia– transformar problemas de acción en proyectos de investigación. Esta ponencia se centra sólo en algunos aspectos de las experiencias: la cooperativa de producción de saber entre estudiantes y profesores; el estudiante, que pasa de ser “actor” a “investigador-autor”, como centro del sistema; y la ruptura transdisciplinar de los rígidos paradigmas clásicos universitarios mediante la puesta en marcha de una verdadera formación-accióninvestigación. Estos logros requieren un cambio cultural y competencial del profesor universitario, así como una ingeniería pedagógica compleja. Algunos cambios observados en las actitudes personales y profesionales de estudiantes y profesores, permiten proponer la alternancia como una alternativa sistémica de formacióndesarrollo cercana a los postulados de Bolonia, frente a los enfoques universitarios tipo transmisivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El microclima urbano juega un rol importante en el consumo energético de los edificios y en las sensaciones de confort en los espacios exteriores. La urgente necesidad de aumentar la eficiencia energética, reducir las emisiones de los contaminantes y paliar la evidente falta de sostenibilidad que afecta a las ciudades, ha puesto la atención en el urbanismo bioclimático como referente para una propuesta de cambio en la forma de diseñar y vivir la ciudad. Hasta ahora las investigaciones en temas de microclima y eficiencia energética se han concentrado principalmente en como orientar el diseño de nuevos desarrollo. Sin embargo los principales problemas de la insostenibilidad de las actuales conurbaciones son el resultado del modelo de crecimiento especulativo y altamente agotador de recursos que han caracterizado el boom inmobiliario de las últimas décadas. Vemos entonces, tanto en España como en el resto de los Países Europeos, la necesidad de reorientar el sector de la construcción hacía la rehabilitación del espacio construido, como una alternativa capaz de dar una solución más sostenible para el mercado inmobiliario. En este propósito de mejorar la calidad de las ciudades actuales, el espacio público juega un papel fundamental, sobre todo como lugar para el encuentro y la socialización entre los ciudadanos. La sensación térmica condiciona la percepción de un ambiente, así que el microclima puede ser determinante para el éxito o el fracaso de un espacio urbano. Se plantea entonces cómo principal objetivo de la investigación, la definición de estrategias para el diseño bioclimático de los entornos urbanos construidos, fundamentados en las componentes morfotipológica, climática y de los requerimientos de confort para los ciudadanos. Como ulterior elemento de novedad se decide estudiar la rehabilitación de los barrios de construcción de mediado del siglo XX, que en muchos casos constituyen bolsas de degrado en la extendida periferia de las ciudades modernas. La metodología empleada para la investigación se basa en la evaluación de las condiciones climáticas y de confort térmico de diferentes escenarios de proyecto, aplicados a tres casos de estudio situados en un barrio periurbano de la ciudad de Madrid. Para la determinación de los parámetros climáticos se han empleado valores obtenidos con un proceso de simulación computarizada, basados en los principios de fluidodinámica, termodinámica y del intercambio radioactivo en el espacio construido. A través de uso de programas de simulación podemos hacer una previsión de las condiciones microclimáticas de las situaciones actuales y de los efectos de la aplicación de medidas. La gran ventaja en el uso de sistemas de cálculo es que se pueden evaluar diferentes escenarios de proyecto y elegir entre ellos el que asegura mejores prestaciones ambientales. Los resultados obtenidos en los diferentes escenarios han sido comparados con los valores de confort del estado actual, utilizando como indicador de la sensación térmica el índice UTCI. El análisis comparativo ha permitido la realización de una tabla de resumen donde se muestra la evaluación de las diferentes soluciones de rehabilitación. Se ha podido así demostrar que no existe una solución constructiva eficaz para todas las aplicaciones, sino que cada situación debe ser estudiada individualmente, aplicando caso por caso las medidas más oportunas. Si bien los sistemas de simulación computarizada pueden suponer un importante apoyo para la fase de diseño, es responsabilidad del proyectista emplear las herramientas más adecuadas en cada fase y elegir las soluciones más oportunas para cumplir con los objetivos del proyecto. The urban microclimate plays an important role on buildings energy consumption and comfort sensation in exterior spaces. Nowadays, cities need to increase energy efficiency, reduce the pollutants emissions and mitigate the evident lack of sustainability. In reason of this, attention has focused on the bioclimatic urbanism as a reference of change proposal of the way to design and live the city. Hitherto, the researches on microclimate and energy efficiency have mainly concentrated on guiding the design of new constructions. However the main problems of unsustainability of existing conurbations are the result of the growth model highly speculative and responsible of resources depletion that have characterized the real estate boom of recent decades. In Spain and other European countries, become define the need to redirect the construction sector towards urban refurbishment. This alternative is a more sustainable development model and is able to provide a solution for the real estate sector. In order to improve the quality of today's cities, the public space plays a key role, especially in order to provide to citizens places for meeting and socializing. The thermal sensation affects the environment perception, so microclimate conditions can be decisive for the success or failure of urban space. For this reasons, the main objective of this work is focused on the definition of bioclimatic strategies for existing urban spaces, based on the morpho-typological components, climate and comfort requirements for citizens. As novelty element, the regeneration of neighborhoods built in middle of the twentieth century has been studied, because are the major extended in periphery of modern cities and, in many cases, they represent deprived areas. The research methodology is based on the evaluation of climatic conditions and thermal comfort of different project scenarios, applied to three case studies located in a suburban neighborhood of Madrid. The climatic parameters have been obtained by computer simulation process, based on fluid dynamics, thermodynamics and radioactive exchange in urban environment using numerical approach. The great advantage in the use of computing systems is the capacity for evaluate different project scenarios. The results in the different scenarios were compared with the comfort value obtained in the current state, using the UTCI index as indicator of thermal sensation. Finally, an abacus of the thermal comfort improvement obtained by different countermeasures has been performed. One of the major achievement of doctoral work is the demonstration of there are not any design solution suitable for different cases. Each situation should be analyzed and specific design measures should be proposed. Computer simulation systems can be a significant support and help the designer in the decision making phase. However, the election of the most suitable tools and the appropriate solutions for each case is designer responsibility.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta comunicación se recoge el debate sobre las influencias orientales —bizantinas, sirias, islámicas…— en la arquitectura fortificada medieval de los reinos cristianos ibéricos, reseñando los aspectos más relevantes de la historia de la construcción oriental e hispanomusulmana que han influido sobre ésta y, en concreto, sobre el ámbito de estudio de la investigación de la que se desprende esta publicación: la franja oriental fronteriza de Castilla con Aragón en la actual provincia de Soria. Se recogen algunas referencias de esa trasmisión cultural que pudieran tener alguna manifestación en las soluciones adoptadas por la construcción castrense que es objeto de estudio en la tesis doctoral del autor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En América Latina, y en Brasil en particular, las ocupaciones informales de la tierra urbana se tornaran un fenómeno generalizado en todas las ciudades, hecho que evidencio una serie de problemas urbanos y de ineficiencia en el proveimiento de los derechos básicos de los ciudadanos, principalmente el derecho a la morada digna, con eso, trajo la necesidad de priorización de política publicas curativas, como los programas de regularización urbana, cuyo objetivo es la inserción de las ocupaciones informales en la ciudad formal, con todos los impactos que eso genera: urbanísticos, legales, sociales y económicos. La ley federal intitulado Estatuto da Cidade (EC), reglamentada en 2001, es entendida como un avanzo jurídico por justamente intentar contrabalancear ese contexto, trayendo una serie de principios e instrumentos que buscan garantizar la función social de la propiedad y de la ciudad. Esa nueva lógica, en la teoría, tiene que ser la base de todas las políticas urbanas del país. Con eso, esa tesis tiene como objetivo evaluar si, realmente, los programas de regularización urbana desarrollados en Brasil cumplen con los dictámenes de dicha legislación. Para eso, fue elegido la metodología del estudio de caso, que fue desarrollado en la ciudad de Porto Alegre, capital del Rio Grande do Sul. Primero fue analizado el Estatuto da Cidade, para la definición de los principios de evaluación, luego, fue propuesto un sistema de evaluación, que fue aplicado en los dos casos estudiados: un anterior a la promulgación del EC, el Condominio dos Anjos, que serbio como parámetro referencial, y otro desarrollado tras la promulgación de dicha legislación, el Programa Integrado Entrada da Cidade (PIEC). Tras los análisis, se puede concluir que la legislación federal efectivamente no ha tenido el reflejo necesario, como conclusiones principales se puede citar: que la legislación municipal de Porto Alegre desde la década 90 ya tenía avances considerables, incluso algunos sirvieron de ejemplo en la elaboración del EC, luego, eso puede explicar el bajo impacto percibido; y que el principal fiscalizador y delineador de la política urbana es el financiador del programa, luego, muchas estrategias y dibujos proyectuales dependen de la línea de dicha financiación. ABSTRACT In Latin America, and Brazil in particular, informal urban land occupations pervasive be turned into all cities, a fact evidenced a series of urban problems and inefficiency to provide the basic rights of citizens, mainly the right to a decent housing, with that, brought the need for prioritization of public policy, such as urban regularization programs, aimed at the inclusion of informal occupations in the formal city, with all the impacts that generates: urban, legal, social and economic. Federal law entitled Estatuto da Cidade (EC), regulated in 2001, is understood as a legal advanced for just try to counterbalance this context, bringing a number of principles and instruments that seek to guarantee the social function of property and the city. This new logic, in theory, has to be the basis of all urban policies of the country. With that, this thesis aims to assess whether urban regularization programs developed in Brazil, actually, comply with the dictates of that legislation. For that, it was elected the methodology of the case study, which was developed in the city of Porto Alegre, capital of Rio Grande do Sul, Brazil. It was first analyzed the EC, for defining the principles for evaluation, then, was proposed an evaluation system, which was applied in two case studies: one before the promulgation of the EC, the Condominio dos Anjos, which used as a reference parameter, and another developed following the enactment of this legislation, the Program Integrate Entrada da Cidade (PIEC). After the analysis, it can be concluded that the federal legislation has not actually had the reflection necessary, main conclusions can be cited: the municipal legislation in Porto Alegre, since the early 90s, had considerable progress, including some served as an example in developing the EC, then, that may explain the low perceived impact; the principal auditor and eyeliner urban policy is the founder of the program, of course, many strategies and project drawings depend on the line of financing.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El uso de las partículas magnéticas ha venido a más durante los últimos 10 años. Lo anterior ha estado condicionado por factores como la amplia investigación en materiales a nivel atómico, los retos propuestos por las diferentes áreas de investigación donde los niveles nanométricos cobran importancia, la inherente innovación tecnológica que pueden aportar a la industria dichas escalas y finalmente, el impacto socioeconómico que pueden tener estos avances tecnológicos. Sin embargo, la traslación a la industria de los avances tecnológicos se ha visto limitada por la falta de estrategias, ya que el 88% del conocimiento se queda en Universidades y Centros de Investigación y el resto, 12%, pasa a la industria o es obtenido en ella. En este trabajo de investigación se ha tratado de completar el círculo de idea, conceptualización, generación de conocimiento, prototipo, prueba in vitro y prueba in vivo; todo ello para dejar el menor espacio posible entre Investigación e Industria. Se ha fabricado un recinto que permite la observación del comportamiento de las partículas magnéticas cuando están inmersas en un medio con viscosidad controlada y con una fuente magnética estática. De la observación experimental se han encontrado fenómenos magnéticos como la aglomeración y la autoorganización, que han sido aprovechados, no solo para ofrecer una solución alternativa a la corrección del desprendimiento de retina, sino también para promover las mejoras de métodos de separación y/o filtrado celular, ayuda en correcciones ortopédicas o en el diagnóstico y tratamiento de enfermedades degenerativas. Particularizando en la corrección del desprendimiento de retina, se ha desarrollado y patentado un Dispositivo Ocular cuya función es la de tapón del agujero retiniano, ayudando en la cicatrización de la retina. Dicho dispositivo ha sido evaluado en conejos albinos neozelandeses obteniéndose un éxito en la reaplicación de la retina del 80% y resultando su toxicidad en condición difusa tras evaluación anatomopatológica. Así mismo, el ferrofluido diseñado y fabricado se ha localizado en la zona de interacción magnética siempre y su disposición ha sido en el mayor de los casos en forma de placa pero también se han formado anillos; lo anterior no ha afectado en ningún sentido el éxito en la reaplicación de la retina. Por otro lado, no se han encontrado indicios de siderosis en la zona de interacción magnética, sus alrededores o el resto del globo ocular; ni las células han presentado apoptosis inducida por los materiales introducidos en el ojo. Sin embargo, se ha encontrado una fuerte necrosis inducida por la presión ejercida sobre la retina por el dispositivo ocular, evidenciando la necesidad de un mejor control de dicha presión. Tras la caracterización de los copos y la presión que éstos ejercen, se ha podido identificar que el dispositivo ocular se puede sintonizar para inducir una presión entre 0.5 y 2.5 mmHg; por tanto se puede vislumbrar que es posible minimizar la muerte celular causada en las células retinianas. Finalmente, tras la experimentación con conejos se ha observado que el dispositivo ocular resuelve los problemas inducidos por las siliconas o los gases e inclusive aporta ventajas competitivas de alto valor añadido como: no requerir de posiciones incómodas en el post-operatorio, no modifica las propiedades ópticas del ojo ya que no es necesario dejar silicona o gases en el interior del ojo, se pueden sellar múltiples agujeros retinianos, corrección de desprendimiento de retina inferior sin complicaciones asociadas, etc.; en definitiva mejora la calidad de vida domiciliaria del paciente además de solventar los problemas inducidos por las soluciones actuales. The using of magnetic particles has become more important during last 10 years. This event has been conditioned by several factors like a wide researching on materials at atomic level, the challenges proposed by different research areas where nanometric levels became important, the inherent technological innovation to the industry and finally, the socioeconomic impact of these kinds of technologies. However, the nanotechnological advances have not been well addressed to the industry since 88% of the acknowledge keeps on Universities and Research Centers, and the remaining 12% goes through the industry or is obtained in it. In this research work, we have tried to complete the entire process about idea, concept, acknowledge generation, prototyping and in vitro and in vivo testing; all to leave as little space as possible between Research and Industry. We have built an experimental hall which allows us the observation of magnetic particles' behavior when are immersing in a controlled viscous medium and under a static magnetic field. The experimental observation has been useful to identify and use two magnetic phenomena: agglomeration and self-organization; no only for retinal detachment, but also to improve cellular separation and/or filtered methods, orthopedic solutions or the diagnostic and treatment of degenerative diseases. Particularizing on retinal detachment, we have developed and patented an Ocular Device which its function is acting like a tampon of the retinal hole for helping with the scarring retina. The device has been evaluated in animals and the results show that we can achieve a success of 80% before rabbit’s death and non cell apoptosis, only necrosis, over the retina attached by the ocular device after anatomopathological evaluation. Also we have identified a diffuse toxicity after anatomopathological evaluation, so more experimenting must be proposed. Otherwise, the ferrofluid has been localized where the magnetic interaction area is located and its deposition has been in most cases plaque shape like but rings have also been observed; this has not affected in any way the successful reattachment of the retina. On the other hand, we have not found any evidence of siderosis in the magnetic interaction zone, near of or some other place of the ocular globe; and we did not find any apoptosis induced by the materials inserted within the eye. However full necrosis, exactly on the magnetic interaction zone, has been found and induced by the pressure exerted over the retina by the ocular device, evidencing the needing of its better control. After flakes’ characterization and its pressure exerted, we identified that the ocular device can be tuned in order to induce a pressure between 0.5 and 2.5 mmHg; therefore we can perceive that death caused to the retinal cells can be minimized. Finally, the experimentation has shown that the ocular device solves all problems induced by silicone or gases an even contributes with some other competitive advantages of high added value like: no uncomfortable postoperative positions, it does not modify any optical property of the eye because there is no needing of leaving silicone or gases inside the eye, many holes can be sealed, the inferior retinal detachment can be solve without any complications, etc.; definitively the ocular device improves patients’ quality of life.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El coste de la energía es, en la actualidad, una de las principales preocupaciones de determinadas zonas regables. Aquellos proyectos de mejora de regadíos, que consistieron fundamentalmente en la sustitución de las redes de distribución en lámina libre por redes a presión, se ven ahora en una situación en la que su rentabilidad financiera se pone en duda y, como consecuencia, su sostenibilidad. El relativamente reciente comienzo del incremento del precio de la energía y otros cambios, como por ejemplo los acaecidos en la política agraria común PAC o la eliminación de las tarifas eléctricas estacionales para riego, han provocado que los proyectos estén operando en puntos alejados de las previsiones iniciales, en los que la rentabilidad social, económica y ambiental quedaba justificada. Ante esta situación, las comunidades de regantes están abordando cambios. Entre estos, destacan, por un lado, las actuaciones sobre las infraestructuras, tales como modificación de equipos de bombeo, reducción de la resistencia al flujo de determinados tramos o zonas de las redes. Por el otro, están abordando cambios en la gestión de estas últimas. En algunos casos, en el riego a la demanda, a través de la aprobación del colectivo, se pierde cierta libertad con la intención de reducir la factura energética. Sin embargo, al final, es el propio regante el que tiene que actuar. En algunos casos, se cambian los cultivos por otros de cosecha temprana o incluso se dejan de regar parte de las tierras regables. En esta situación, que se puede calificar de frágil, por un lado, conviene identificar aquellas actuaciones que por unidad monetaria invertida producirán el máximo beneficio. Y, por el otro, aquellas que por unidad monetaria perdida en el beneficio redunden en una reducción máxima de los costes. Este trabajo trata de centrar el objetivo general arriba enunciado al ámbito de las redes de riego a presión. Si bien hay ya algunos trabajos sobre auditorías energéticas, su aplicación no permite desarrollar el objetivo de este trabajo, ya que van dirigidas hacia la recopilación y elaboración de información. Por este motivo, se proponen y analizan indicadores de rendimiento basados en el balance energético tanto de las infraestructuras, desglosados según la funcionalidad de sus elementos, como del manejo y las condiciones de funcionamiento.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La contaminación acústica se ha convertido en uno de los principales problemas en materia medioambiental de nuestra sociedad. La creciente preocupación ha propiciado la aparición de legislación, en los distintos ámbitos de la administración, cuyo objetivo consiste en gestionar y reducir la contaminación acústica y sus efectos sobre las personas y el medio ambiente. En este sentido, en relación a las infraestructuras del transporte, y de modo muy especial en los aeropuertos, el monitorado del ruido se convierte en una herramienta de suma importancia para la gestión del ruido, la planificación del territorio y la adopción de medidas correctoras (planes de acción). Los terminales de monitorado de ruido ambiental, que se utilizan fundamentalmente en los aeropuertos, realizan una medición del nivel de ruido ambiental, y evalúan la contaminación que generan las aeronaves al ambiente sonoro general. Para ello, deben ser capaces de medir la evolución temporal del ruido y discriminar aquellos eventos sonoros que se correspondan con el paso de un avión frente al ruido de fondo. Los requisitos aplicables a las unidades de medida, así como los procedimientos de medida implicados han sido descritos recientemente en normas internacionales, como la ISO 20906 o la ARP 4721. Es precisamente en el aspecto relacionado con la discriminación del origen del ruido, donde los sistemas existentes presentan las principales carencias, ya que, un sistema básico de monitorado de ruido realiza la detección de eventos a partir de las medidas de nivel sonoro, evaluando los incrementos de nivel mediante la utilización de umbrales. Dichos umbrales relacionan nivel sonoro y tiempo, de forma que se efectúa el marcado de eventos cuando el nivel de presión sonora, Lp(t), supera un valor determinado durante, al menos, un determinado intervalo temporal. Uno de los principales objetivos de esta tesis se centra en el análisis de los sistemas que existen para la discriminación de ruido de aeronaves, y en el análisis de las contribuciones de estos sistemas sobre la incertidumbre de la medida y el reporte de resultados. Para la consecución de dicho objetivo, se ha definido un modelo de incertidumbre que permite evaluar los diferentes factores de influencia y realizar una cuantificación de la incertidumbre para diferentes escenarios. Durante este proceso se han definido y analizado los conceptos de incertidumbre de detección e incertidumbre de identificación, ambos derivados del diagrama de bloques que propone la norma ISO 20906 para la discriminación del ruido producido por los aviones y el procesado de datos. Asimismo, se pretende abordar el problema de la discriminación de aeronaves con un enfoque novedoso, que permita mejorar el rendimiento de los sistemas y reducir la incertidumbre. Mediante un sistema basado en reconocimiento de patrones uniclase, se aborda esta tarea en base al análisis de la semejanza entre la señal sonora registrada y el sonido que producen los aviones, dejando al margen la magnitud del sonido. Las técnicas de reconocimiento de patrones, y reconocimiento automático de habla, han sido aplicadas previamente al reconocimiento de fuentes de ruido ambiental. Algunos de estos proyectos se han centrado en el ruido de aviones, pero la novedad en esta tesis radica en la aplicación de clasificadores uniclase en un sistema que detecta eventos sonoros gracias a la clasificación de los fragmentos que lo componen. Actualmente los sistemas de gestión de ruido aeroportuario enlazan los datos de ruido proporcionados por las estaciones de monitorado con los datos procedentes del sistema seguimiento de los vuelos de los aviones mediante radar. Este tipo de sistemas es el que ha presentado mayor aceptación y ha sido implantado en los sistemas de monitorado de ruido de los principales aeropuertos internacionales. Sin embargo, este enfoque requiere de equipamiento que permita realizar el seguimiento de la posición de avión, y, dado que únicamente utilizan los niveles sonoros medidos para enlazarlos con el avión que los origina, no será capaz de detectar errores derivados de la presencia de una fuente sonora secundaria cuando existe un avión en la zona. El sistema que se plantea con la realización de esta tesis supone un avance debido a que permite eliminar del proceso de discriminación los umbrales de nivel sonoro, analizando única y exclusivamente la semejanza entre las señales comparadas. De esta manera se pretende mejorar las tasas de error en la identificación, e incluir umbrales de semejanza que permitan eliminar los umbrales de nivel sonoro en el proceso de detección. La implementación del sistema complementando al resto de sistemas del aeropuerto, permitirá la ampliación de las capacidades en el monitorado y la reducción de los costes en las campañas de medición desatendida. Al tiempo que se introducen las técnicas de reconocimiento de patrones en los sistemas de discriminación de los monitores de ruido, se pretende sacar partido de las posibilidades abiertas para dotar al sistema de capacidades adicionales, como es el caso de la detección del ruido de reversa, que se produce tras el aterrizaje de los aviones. La reversa se activa tras el contacto con tierra por parte de los aviones, para reducir la velocidad y acortar la distancia de frenado de los aviones. Esta práctica se usa de forma habitual en los aterrizajes, especialmente en los casos en los que la salida que debe tomar el avión rumbo al terminal se encuentra demasiado próxima al punto de aterrizaje. El empuje inverso se debe a una alteración en el flujo normal de aire que atraviesa los motores, que produce un violento choque contra la carcasa del motor, originando vibraciones y flujo turbulento que se convierte en ruido. El ruido de reversa puede alcanzar unos niveles mucho mayores que el propio aterrizaje, y sus características dinámicas y espectrales lo convierten en especialmente molesto. Por este motivo la utilización injustificada (salvo por motivos de seguridad) está prohibida o es desaconsejada en un gran número de aeropuertos, a nivel internacional (especialmente durante el período nocturno). Sin embargo, las autoridades aeroportuarias carecen de herramientas eficientes y fiables que permitan detectar la utilización de reversa, siendo este punto uno de los aspectos tratados en esta investigación.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Es ya desde mucho tiempo atrás que me preocupa el tema de las relacciones que pueda haber entre la constitución física y la personalidad de los individuos, pues siempre me he planteado el problema de que una deficiencia física, que no tiene porque ser patológica, o cualquier " constitución corporal n que se salga de la normalidad, condiciona, en muchos casos, en gran medida la forma de actuar de los individuos , en sus relaciones con los demás, apareciendo, por ejemplo, tendencias agresivas, suspicacias, desconfianzas, etc. aparte también, por supuesto, de otra seria; de condicionamientos, pero que ahora no vamos a analizar. De la misma forma, otros individuos, por su constitución corporal son más tranquilos, afables, confiados, etc. Se me ha dado ahora la oportunidad de cerciorarme por propia experiencia, incluyendo este trabajo, en el grupo que lleva el subtítulo colectivo de: "ESTUDIO DIFERENCIAL DE APTITUDES DE ESTUDIANTES DE PROFESORADO DE EDUCACIÓN FÍSICA ", y me he decidido por realizar esta investigación titulada: n CONSTITUCIÓN FÍSICA Y PERSONALIDAD EN ESTUDIANTES DE EDUCACIÓN FÍSICA ", esperando poder dar al final, algunas conclusiones que puedan confirmar lo que en un principio me ha movido, ver que hay diferencias en algunos rasgos de personalidad entre los estudiantes de Educación Física y los demás estudios realizados por otros auto res.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Las estructuras mixtas tienen como filosofía una disposición óptima de los materiales que las forman tanto por su resistencia, aspecto constructivo, funcional y formal. Habitualmente estos materiales serán acero y hormigón que trabajan de forma solidaria gracias a la conexión dispuesta en la interfaz entre materiales y que transmite el flujo rasante entre ambos permitiendo así que la sección trabaje de un modo solidario. Tanto el hormigón como el acero, pueden formar parte de las secciones mixtas de diferentes maneras. En el caso del acero, se tratará primordialmente de acero estructural en la zona inferior de la sección, pero también se encontrará embebido en el hormigón en forma de armadura pasiva, o en forma de armaduras activas, aunque en el siguiente trabajo nos centraremos más en los casos en que la losa se refuerce mediante armadura pasiva. Además, estudiaremos casos en los que las distintas chapas que forman la sección metálica, puedan tener diferentes resistencias, tratándose entonces de secciones metálicas híbridas. Por otra parte, el hormigón no sólo estará presente en las secciones como hormigón vertido “in situ” sino que también existirán casos a los que llegaremos más adelante en el que se usen losas de hormigón prefabricado, que incluso puedan trabajar de encofrado perdido del hormigón “in situ” pasando a formar, los dos tipos, parte de la losa de hormigón bien superior o inferior según la tipología de puente empleado. La acción mixta, será estudiada en este trabajo en su aplicación en puentes y viaductos, pero también tiene una profunda aplicación en el ámbito de la edificación en base a sus peculiaridades, mínimos pesos a bajo coste, apropiada rigidez, monolitismo y arriostramiento sin fragilidad, grandes posibilidades de empleo de la prefabricación, rapidez de ejecución, mínimos cantos con bajo coste, etc. También se puede usar en una actividad creciente y cada vez de mayor importancia, como es el refuerzo de antiguas estructuras metálicas o de hormigón, al transformarlas en mixtas, aumentando así su capacidad portante. La construcción mixta ofrece las máximas posibilidades de empleo racional de los materiales básicos de la construcción moderna, a saber el hormigón y el acero, así como la creación de formas, procesos, etc., en un campo en el que a pesar de todos los logros alcanzados sigue en evolución y alcanza nuevos límites cada día.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En los últimos años, la investigación se ha preocupado crecientemente sobre la anticipación visual de los deportistas en deportes de intercepción (e.g.,Van der Kamp, Rivas, Van Doorn y Savelsbergh, 2008). Estos trabajos han mostrado de forma consistente que el rendimiento de los deportistas está regulado por tres factores que interactúan. El primero, la estructura y la dinámica de la tarea estipulan los márgenes espaciales y temporales en los que actuar (e.g., Vilar, Araújo, Davids, Correia y Esteves, 2012). También, cómo los deportistas extraen y utilizan la información disponible del entorno sobre la que guiar su conducta (e.g., Savelsbergh, Williams, Van der Kamp y Ward, 2002). Y el tercero se refiere a su anticipación y tiempos de movimiento (e.g., Dicks, Davids y Button, 2010b). El objetivo del estudio fue evaluar la evolución de las estrategias visuales y motrices cuando se manipulan las demandas espacio-temporales así como la fiabilidad de la información. Para ello, se examinaron doce porteros expertos de fútbol sala in situ mientras recibían tiros de penalti en cuatro condiciones que diferían en cuanto a distancia de disparo (penaltis desde 6 m vs. dobles penaltis desde 10m) y a la estrategia de engaño del oponente (tiros normales vs. tiros conengaño). Se grabó el rendimiento y sus tiempos de movimiento utilizando una cámara de alta velocidad (120fps) y se registró su mirada mientras intentaban interceptar los disparos empleando el sistema portátil de seguimiento de la mirada ASL MobileEye. Se analizaron las medidas derivadas de los análisis de los vídeos a través de una prueba de ANOVA (Friedman o Medidas Repetidas) y se hizo un análisis discriminante para extraer las variables del rendimiento: gol vs. parada. Los porteros pararon más tiros (61% vs. 23%), obtuvieron valores de rendimiento más altos ( 4.1 vs. 2.1 sobre 5), y acertaron el lado más frecuentemente (97% vs. 53%) en los tiros de dobles penaltis comparado con los tiros de penalti. El engaño tuvo un efecto nulo en el rendimiento de los porteros, excepto para el número de correcciones entre dobles penaltis, donde corrigieron su movimiento inicial de parada hacia el otro lado en un 23% de los tiros con engaño por un 12% en los tiros normales. Los participantes iniciaron su acción de parada antes en los penaltis comparado con los dobles penalti, no encontrándose ningún efecto de la estrategia de engaño en los tiempos de movimiento. Esas diferencias entre distancias fueron notables en las medidas del tronco y de los pies (339 y 330 ms respectivamente), los cuales pasaron de valores negativos(movimiento antes del golpeo) en los penaltis, a valores positivos (movimiento después del golpeo) en los dobles penaltis. Sin embargo, los tiempos de los brazos se mantuvieron cercanos a los 200 ms en ambos tiros de penaltis y de dobles penaltis (23 ms de diferencia media). El análisis de los patrones visuales reveló una remarcable variabilidad, tanto entre participantes como intra participantes, aunque emergió un patrón general. Los porteros tendieron a mirar hacia el cuerpo del tirador (sobre todo la cabeza) durante el comienzo de la carrera de aproximación y después, según avanzaba el jugador hacia el balón apartaban su mirada del jugador y la dirigían hacia el balón (o zona entre el balón y la pierna de apoyo). Los porteros miraron durante más tiempo al cuerpo y cambiaron de foco hacia el balón más tarde en los tiros de penalti con respecto a los tiros de doble penal ti. Así pues, este cambio de foco visual corporal hacia el balón pareció estar relacionado con los determinantes espacio-temporales (i.e., 6 vs. 10 m] más que con las estrategias de engaño del tirador o con el tiempo de inicio de los participantes. Tanto los tiros de penalti (6 m] como los de doble penalti (10 m) fueron menos veloces en los tiros con engaño en comparación con los tiros normales .. El análisis discriminante encontró que la distancia horizontal al centro (balón situado más cerca del portero) fue crucial para parar el doble penalti, siendo menos importante para el caso de los penaltis; viceversa sucedió con el tiempo de visión en los primeros momentos de vuelo del balón, resultando más predictivo de la parada en el caso de los penaltis que el de los dobles penaltis. Los resultados sugieren el uso de diferentes estrategias viso-motoras en función de la distancia de disparo. En los tiros de doble penalti (desde 10 m], los participantes esperaron a ver la información del balón (obteniendo información del golpeo y del vuelo) para coordinar sus acciones en función de esa información más fiable (Diaz, Fajen y Phillips, 2012). Así, comenzaron su acción de parada sobre los 200 ms después del golpeo, lo que les permitió moverse de forma constante hacia el mismo lado del balón, pero les dejó sin tiempo suficiente para alcanzar el balón en los casos en los que éste fue relativamente ajustado al palo. Por el contrario, en los tiros de penalti [desde 6 m], los porteros generalmente empezaron a moverse antes del golpeo, para aumentar su margen temporal de acción y así aumentar sus opciones de llegar a los balones escorados(en caso de haber acertado el lado). Esto les obligó a basar sus acciones en información temprana menos predictiva [más tiempo de visión en el cuerpo y cambio de foco más tardío) lo que les provocó un detrimento en el rendimiento. Por ejemplo, en los tiros de penalti los porteros acertaron el lado en sólo en la mitad de los casos. Así, en los penaltis los porteros se movieron hacia nno de los lados (i.e., derecha o izquierda) independientemente de la dirección final de tiro, mientras que en los dobles se encontró una relación de dependencia entre la trayectoria de los tiros y la dirección de la acción de parada (Kuhn, 1988). Por otra parte, los tiempos de inicio del movimiento del tronco y de los pies en los dobles fueron relativamente similares, mientras que en los tiros de penalti la diferencia entre participantes aumentó. Esto podría indicar que la variabilidad en el tiempo de inicio de la parada entre participantes podría verse influenciada por las demandas espacio-temporales. Por último, las intenciones de engaño de los tiradores afectaron su capacidad de tiro (más despacio) pero no provocaron ningún efecto observable en el rendimiento, tiempo de movimiento o patrones visuales de los porteros. La presentación aleatoria de los tiros en cuanto a estrategia podría haber impedido que los porteros establecieran relaciones entre las variables ópticas tempranas (i.e., información del cuerpo del tirador) y la dirección final de tiro (pero ver Dicks, Button y Davids, 2010a).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

“Por lo tanto, la cristalización de polímeros se supone, y en las teorías se describe a menudo, como un proceso de múltiples pasos con muchos aspectos físico-químicos y estructurales influyendo en él. Debido a la propia estructura de la cadena, es fácil entender que un proceso que es termodinámicamente forzado a aumentar su ordenamiento local, se vea obstaculizado geométricamente y, por tanto, no puede conducirse a un estado de equilibrio final. Como resultado, se forman habitualmente estructuras de no equilibrio con diferentes características dependiendo de la temperatura, presión, cizallamiento y otros parámetros físico-químicos del sistema”. Estas palabras, pronunciadas recientemente por el profesor Bernhard Wunderlich, uno de los mas relevantes fisico-quimicos que han abordado en las ultimas décadas el estudio del estado físico de las macromoléculas, adelantan lo que de alguna manera se explicita en esta memoria y constituyen el “leitmotiv” de este trabajo de tesis. El mecanismo de la cristalización de polímeros esta aun bajo debate en la comunidad de la física de polímeros y la mayoría de los abordajes experimentales se explican a través de la teoría LH. Esta teoría clásica debida a Lauritzen y Hoffman (LH), y que es una generalización de la teoría de cristalización de una molécula pequeña desde la fase de vapor, describe satisfactoriamente muchas observaciones experimentales aunque esta lejos de explicar el complejo fenómeno de la cristalización de polímeros. De hecho, la formulación original de esta teoría en el National Bureau of Standards, a comienzos de la década de los 70, sufrió varias reformulaciones importantes a lo largo de la década de los 80, buscando su adaptación a los hallazgos experimentales. Así nació el régimen III de cristalización que posibilita la creacion de nichos moleculares en la superficie y que dio pie al paradigma ofrecido por Sadler y col., para justificar los experimentos que se obtenian por “scattering” de neutrones y otras técnicas como la técnica de “droplets” o enfriamiento rapido. Por encima de todo, el gran éxito de la teoría radica en que explica la dependencia inversa entre el tamaño del plegado molecular y el subenfriamiento, definido este ultimo como el intervalo de temperatura que media entre la temperatura de equilibrio y la temperatura de cristalización. El problema concreto que aborda esta tesis es el estudio de los procesos de ordenamiento de poliolefinas con distinto grado de ramificacion mediante simulaciones numéricas. Los copolimeros estudiados en esta tesis se consideran materiales modelo de gran homogeneidad molecular desde el punto de vista de la distribución de tamaños y de ramificaciones en la cadena polimérica. Se eligieron estas poliolefinas debido al gran interes experimental en conocer el cambio en las propiedades fisicas de los materiales dependiendo del tipo y cantidad de comonomero utilizado. Además, son modelos sobre los que existen una ingente cantidad de información experimental, que es algo que preocupa siempre al crear una realidad virtual como es la simulación. La experiencia en el grupo Biophym es que los resultados de simulación deben de tener siempre un correlato mas o menos próximo experimental y ese argumento se maneja a lo largo de esta memoria. Empíricamente, se conoce muy bien que las propiedades físicas de las poliolefinas, en suma dependen del tipo y de la cantidad de ramificaciones que presenta el material polimérico. Sin embargo, tal como se ha explicado no existen modelos teóricos adecuados que expliquen los mecanismos subyacentes de los efectos de las ramas. La memoria de este trabajo es amplia por la complejidad del tema. Se inicia con una extensa introducción sobre los conceptos básicos de una macromolecula que son relevantes para entender el contenido del resto de la memoria. Se definen los conceptos de macromolecula flexible, distribuciones y momentos, y su comportamiento en disolución y fundido con los correspondientes parametros caracteristicos. Se pone especial énfasis en el concepto de “entanglement” o enmaranamiento por considerarse clave a la hora de tratar macromoléculas con una longitud superior a la longitud critica de enmaranamiento. Finaliza esta introducción con una reseña sobre el estado del arte en la simulación de los procesos de cristalización. En un segundo capitulo del trabajo se expone detalladamente la metodología usada en cada grupo de casos. En el primer capitulo de resultados, se discuten los estudios de simulación en disolución diluida para sistemas lineales y ramificados de cadena única. Este caso mas simple depende claramente del potencial de torsión elegido tal como se discute a lo largo del texto. La formación de los núcleos “babys” propuestos por Muthukumar parece que son consecuencia del potencial de torsión, ya que este facilita los estados de torsión mas estables. Así que se propone el análisis de otros potenciales que son igualmente utilizados y los resultados obtenidos sobre la cristalización, discutidos en consecuencia. Seguidamente, en un segundo capitulo de resultados se estudian moleculas de alcanos de cadena larga lineales y ramificados en un fundido por simulaciones atomisticas como un modelo de polietileno. Los resultados atomisticos pese a ser de gran detalle no logran captar en su totalidad los efectos experimentales que se observan en los fundidos subenfriados en su etapa previa al estado ordenado. Por esta razon se discuten en los capítulos 3 y 4 de resultados sistemas de cadenas cortas y largas utilizando dos modelos de grano grueso (CG-PVA y CG-PE). El modelo CG-PE se desarrollo durante la tesis. El uso de modelos de grano grueso garantiza una mayor eficiencia computacional con respecto a los modelos atomísticos y son suficientes para mostrar los fenómenos a la escala relevante para la cristalización. En todos estos estudios mencionados se sigue la evolución de los procesos de ordenamiento y de fusión en simulaciones de relajación isoterma y no isoterma. Como resultado de los modelos de simulación, se han evaluado distintas propiedades fisicas como la longitud de segmento ordenado, la cristalinidad, temperaturas de fusion/cristalizacion, etc., lo que permite una comparación con los resultados experimentales. Se demuestra claramente que los sistemas ramificados retrasan y dificultan el orden de la cadena polimérica y por tanto, las regiones cristalinas ordenadas decrecen al crecer las ramas. Como una conclusión general parece mostrarse una tendencia a la formación de estructuras localmente ordenadas que crecen como bloques para completar el espacio de cristalización que puede alcanzarse a una temperatura y a una escala de tiempo determinada. Finalmente hay que señalar que los efectos observados, estan en concordancia con otros resultados tanto teoricos/simulacion como experimentales discutidos a lo largo de esta memoria. Su resumen se muestra en un capitulo de conclusiones y líneas futuras de investigación que se abren como consecuencia de esta memoria. Hay que mencionar que el ritmo de investigación se ha acentuado notablemente en el ultimo ano de trabajo, en parte debido a las ventajas notables obtenidas por el uso de la metodología de grano grueso que pese a ser muy importante para esta memoria no repercute fácilmente en trabajos publicables. Todo ello justifica que gran parte de los resultados esten en fase de publicación. Abstract “Polymer crystallization is therefore assumed, and in theories often described, to be a multi step process with many influencing aspects. Because of the chain structure, it is easy to understand that a process which is thermodynamically forced to increase local ordering but is geometrically hindered cannot proceed into a final equilibrium state. As a result, nonequilibrium structures with different characteristics are usually formed, which depend on temperature, pressure, shearing and other parameters”. These words, recently written by Professor Bernhard Wunderlich, one of the most prominent researchers in polymer physics, put somehow in value the "leitmotiv "of this thesis. The crystallization mechanism of polymers is still under debate in the physics community and most of the experimental findings are still explained by invoking the LH theory. This classical theory, which was initially formulated by Lauritzen and Hoffman (LH), is indeed a generalization of the crystallization theory for small molecules from the vapor phase. Even though it describes satisfactorily many experimental observations, it is far from explaining the complex phenomenon of polymer crystallization. This theory was firstly devised in the early 70s at the National Bureau of Standards. It was successively reformulated along the 80s to fit the experimental findings. Thus, the crystallization regime III was introduced into the theory in order to explain the results found in neutron scattering, droplet or quenching experiments. This concept defines the roughness of the crystallization surface leading to the paradigm proposed by Sadler et al. The great success of this theory is the ability to explain the inverse dependence of the molecular folding size on the supercooling, the latter defined as the temperature interval between the equilibrium temperature and the crystallization temperature. The main scope of this thesis is the study of ordering processes in polyolefins with different degree of branching by using computer simulations. The copolymers studied along this work are considered materials of high molecular homogeneity, from the point of view of both size and branching distributions of the polymer chain. These polyolefins were selected due to the great interest to understand their structure– property relationships. It is important to note that there is a vast amount of experimental data concerning these materials, which is essential to create a virtual reality as is the simulation. The Biophym research group has a wide experience in the correlation between simulation data and experimental results, being this idea highly alive along this work. Empirically, it is well-known that the physical properties of the polyolefins depend on the type and amount of branches presented in the polymeric material. However, there are not suitable models to explain the underlying mechanisms associated to branching. This report is extensive due to the complexity of the topic under study. It begins with a general introduction to the basics concepts of macromolecular physics. This chapter is relevant to understand the content of the present document. Some concepts are defined along this section, among others the flexibility of macromolecules, size distributions and moments, and the behavior in solution and melt along with their corresponding characteristic parameters. Special emphasis is placed on the concept of "entanglement" which is a key item when dealing with macromolecules having a molecular size greater than the critical entanglement length. The introduction finishes with a review of the state of art on the simulation of crystallization processes. The second chapter of the thesis describes, in detail, the computational methodology used in each study. In the first results section, we discuss the simulation studies in dilute solution for linear and short chain branched single chain models. The simplest case is clearly dependent on the selected torsion potential as it is discussed throughout the text. For example, the formation of baby nuclei proposed by Mutukhumar seems to result from the effects of the torsion potential. Thus, we propose the analysis of other torsion potentials that are also used by other research groups. The results obtained on crystallization processes are accordingly discussed. Then, in a second results section, we study linear and branched long-chain alkane molecules in a melt by atomistic simulations as a polyethylene-like model. In spite of the great detail given by atomistic simulations, they are not able to fully capture the experimental facts observed in supercooled melts, in particular the pre-ordered states. For this reason, we discuss short and long chains systems using two coarse-grained models (CG-PVA and CG-PE) in section 3 and 4 of chapter 2. The CG-PE model was developed during the thesis. The use of coarse-grained models ensures greater computational efficiency with respect to atomistic models and is enough to show the relevant scale phenomena for crystallization. In all the analysis we follow the evolution of the ordering and melting processes by both isothermal and non isothermal simulations. During this thesis we have obtained different physical properties such as stem length, crystallinity, melting/crystallization temperatures, and so on. We show that branches in the chains cause a delay in the crystallization and hinder the ordering of the polymer chain. Therefore, crystalline regions decrease in size as branching increases. As a general conclusion, it seems that there is a tendency in the macromolecular systems to form ordered structures, which can grown locally as blocks, occupying the crystallization space at a given temperature and time scale. Finally it should be noted that the observed effects are consistent with both, other theoretical/simulation and experimental results. The summary is provided in the conclusions chapter along with future research lines that open as result of this report. It should be mentioned that the research work has speeded up markedly in the last year, in part because of the remarkable benefits obtained by the use of coarse-grained methodology that despite being very important for this thesis work, is not easily publishable by itself. All this justify that most of the results are still in the publication phase.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En los últimos años ha aumentado el interés en el desarrollo de proyectos en el ámbito de las centrales hidroeléctricas y en concreto en las centrales reversibles. Estas centrales están diseñadas para grandes caudales y saltos, lo cual conlleva túneles de gran diámetro y alta presión y a menudo son esquemas subterráneos. Por ello, los estudios relativos a revestimientos de túneles en presión y los referentes a los blindajes de acero han cobrado una mayor relevancia. En las décadas de los 60 y 70 se realizó una importante labor de investigación coincidiendo con el desarrollo hidroeléctrico en Europa y Norteamérica, que sin embargo ha quedado sin continuidad hasta esta década, en la que se ha experimentado un impulso debido al desarrollo de nuevos proyectos hidroeléctricos de gran magnitud. La adecuación de los métodos de cálculo de blindajes supone una herramienta imprescindible en el correcto desarrollo técnico de los nuevos proyectos hidroeléctricos, así como para la evaluación de la seguridad de los saltos hidroeléctricos existentes en operación. En la presente Tesis se realiza un análisis del comportamiento estructural de las galerías en presión de saltos hidroeléctricos, así como una discusión y revisión de los métodos de cálculo existentes. En concreto se analizan los siguientes aspectos: •Descripción y comparación de las formulaciones existentes para el cálculo de blindajes tanto a presión exterior como interior. •Aplicación del Método de Elementos Finitos para la modelización y cálculo resistente y frente a inestabilidad de blindajes sometidos a presión exterior. •Análisis de un caso real, en el que se ha producido un fallo estructural en un blindaje sometido a presión exterior. Discusión sobre el comportamiento de blindajes con rigidizadores. Estudio paramétrico de la capacidad resistente y de la estabilidad de los blindajes con rigidizadores. •Estudio del comportamiento diferenciado entre un rigidizador y un conector. •Detalles constructivos y de durabilidad de las galerías en presión. •Desarrollo de una metodología para el cálculo de blindajes y tuberías forzadas a fatiga derivada de las variaciones de presión de la conducción. •Análisis de un caso real de una tubería forzada sometida a procesos de variación de carga, evaluando su seguridad frente a la fatiga. El cálculo de blindajes en galerías forzadas presenta una serie de aspectos complejos, y que no permiten la definición del problema con exactitud, tales como las características del macizo rocoso y su permeabilidad, la determinación del nivel freático, la holgura existente entre el blindaje y el revestimiento del trasdós y sus posibles defectos geométricos. Por estas incertidumbres, el cálculo de blindajes supone una materia compleja y que debe ser abordada desde la cautela y el análisis de otros trabajos y/o análisis realizados con anterioridad. En cualquier caso, debe realizarse un análisis de sensibilidad de los diversos parámetros que intervienen en el cálculo. En esta tesis se han descrito las principales formulaciones de cálculo de blindajes de galerías forzadas sometidas a presión interior y exterior; se ha constatado que existe una gran diversidad y que de su aplicación no se llega a resultados concluyentes. Las formulaciones clásicas utilizadas en el cálculo de blindajes lisos y con rigidizadores sometidos a presión exterior (Amstutz y Jacobsen) no resultan del todo adecuadas ni son de aplicación general. Además, pueden arrojar resultados no conservadores o conducir a un sobredimensionamiento del blindaje en otros casos. En las formulaciones tradicionales de diseño se han tenido en cuenta como imperfecciones la holgura del blindaje y la ovalidad del mismo. En la presente tesis, se han analizado imperfecciones de tipo ondulatorio derivadas de los procesos de soldadura y la existencia de espesores reducidos en zonas de corrosión. En el caso práctico analizado sometido a presión exterior, se ha comprobado el funcionamiento real del blindaje mediante los modelos realizados con elementos finitos. Se desprende que los rigidizadores no han funcionado como tales, puesto que para blindajes lisos se obtienen presiones más bajas de pandeo y para el caso de funcionamiento correcto de los rigidizadores se habría obtenido un coeficiente de seguridad suficiente. Por este motivo, se ha analizado el posible funcionamiento de los rigidizadores, que en determinados casos pueden actuar como conectores. En estos casos deben dimensionarse de forma adecuada las soldaduras para soportar las tensiones entre chapa y conector. Por otra parte, tradicionalmente no se han tenido en cuenta los efectos de fatiga que pueden ocasionar los golpes de ariete y las pulsaciones de presión debidas a la regulación secundaria de la red. En esta tesis se ha establecido un procedimiento de comprobación de tuberías forzadas y blindajes sometidos a procesos de fatiga. Adicionalmente, se ha estudiado el caso real de las tuberías forzadas de una central reversible real (Bolarque II) en funcionamiento de regulación secundaria. Se ha concluido, como en otros casos analizados en la bibliografía, que las pulsaciones derivadas de la regulación secundaria no son significativas como para tener en cuenta la fatiga del acero. Por otra parte, las maniobras de arranque y parada (golpe de ariete) suponen una variación importante de la presión en la conducción. Sin embargo, el moderado número de ciclos permite asegurar la integridad de la tubería frente a fenómenos de fatiga. Nowadays, there is a significant concern in the development of projects in the field of hydroelectric power plants, particularly in the pump-storage projects. These plants are designed for high flow rates and heads, which entails large-diameter tunnels and high pressure ratios), and often as underground schemes. Therefore, this concern has reactivated studies about penstocks and in particular those related to steel liners. During the 1960s and 1970s due to hydropower-engineering development in Europe and North America, a major research effort was done. However, the increasing development of new large-scale hydropower projects has involved a renewed research effort during this decade. The adequacy of steel liner calculation methods is a very important issue in the proper technical development of new hydroelectric projects, and for the safety assessment of existing hydroelectric power plants in operation. In this work, an analysis of the structural behavior of pressure galleries in hydroelectric schemes was carried out. Also, a discussion and a review of existing calculation methods are included. In particular, the following issues have been considered: •Description and comparison of existing formulations for calculating the liner response to both external and internal pressure. •Analysis of an actual case study of a steel liner which failed due to external pressure. •Application of the Finite Element Method to liner modeling and analysis subjected to external pressure. •A parametric study of the shielding with stiffeners and discussion about the behavior of liner with stiffeners. •Constructive aspects and durability of pressure galleries. •Development of a methodology for estimating fatigue effects on penstocks and liners sue to pressure changes. •Analysis of an actual case study of a penstock under varying load and assessment of its safety against fatigue. The project of a hydropower penstock is a complex issue, due to the uncertainties in the definition of the problem data, such as the characteristics of the rock mass and its permeability, the determination of the water table, the existing gap between the steel liner and the concrete of the backfill, the geometric imperfections... Hence, the design and analysis of a steel liner must be addressed cautiously and take into account a review of previous studies performed. Ever, a sensitivity analysis of the various parameters involved in the calculation should be performed. In this work, some of the most relevant formulations for liner design subjected to inside and outside pressure have been studied. As a whole, there is a wide variety and its application does not lead to conclusive results. The classical formulations used in the steel liner calculation either with or without stiffeners under external pressure (Amstutz and Jacobsen) are not entirely adequate Also, those can yield both conservative and non-conservative results in large ranges of application. Traditionally design approaches only considered initial gap and ovality as the most relevant geometric imperfections. Thus, little attention was paid to those caused either by welding or by thickness loss in corroded areas. In the case study analyzed in this thesis, the actual working of the liner under external pressure has been simulated by the Finite Element Method. Results show that the stiffeners have not performed as such, since for unstiffened liner lower buckling pressures are obtained and for proper performance of the stiffeners would give a sufficient safety factor. Hence, it must be pointed out that stiffeners may perform either as such or as connectors. For the latter, welding must be designed to properly withstand stresses between the shell and the stiffener. Likewise, the potential fatigue effects due to both water hammer and pressure pulsations due to secondary regulation of the network have not been considered in many studies. It has been included in this work a procedure for checking penstocks and liners under fatigue processes. Additionally, the penstock fatigue response of an actual pump storage project (Bolarque II, Spain) subjected to secondary control operation has been assessed. As in other cases discussed in the literature, pulsations derived from the secondary control are not significant to account for fatigue of steel. Moreover, the start and stop manoeuvres (water hammer) cause a significant change in penstock pressure. However, the moderate number of cycles ensures the integrity of the penstock against fatigue phenomena.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En los últimos años, el desarrollo industrial a nivel globalizado en los diferentes sectores, la difusión de la TI y el uso estratégico de la misma, han crecido de manera exponencial. El uso adecuado de esta, se ha convertido en una gran preocupación para los órganos de gobierno de las organizaciones ya que la falta de dirección y control en las inversiones que se realizan en ellas, así como un uso inadecuado de las mismas pueden comprometer la consecución de los objetivos de la organización, su competitividad y su sostenibilidad a medio-largo plazo. La preocupación de los propietarios de los negocios es mejorar su rendimiento con la ayuda de la TI frente a sus competidores, realizando los procesos de negocio de una manera eficaz y eficiente, por lo que muchas organizaciones han realizado inversiones importantes en la adquisición de tecnología para lograr sus propósitos. Sin embargo la ejecución de estas inversiones no se ha gestionado adecuadamente, conforme a las políticas y planes especificados en los planes de negocio de la organización y la entrega de los servicios de TI no ha sido conforme a los objetivos previstos, generando pérdidas importantes y lo que es peor un gran deterioro de la imagen de la organización, por lo que consideramos a la gestión de la demanda estratégica de la TI como uno de los factores claves para el éxito de los negocios, el cual no ha sido tomada en cuenta por los consejos de gobierno o los altos ejecutivos de las organizaciones. La investigación comienza con una amplia revisión de la literatura, identificando dos elementos muy importantes, la demanda y el suministro de la TI dentro de la gobernanza corporativa de la TI; notándose la escasa información relacionado con la gestión de la demanda estratégica de la TI. Se realizó un estudio exploratorio para conocer como los miembros del consejo de administración y altos ejecutivos de una organización gestionan la demanda estratégica de la TI, obteniendo una respuesta de 130 encuestados, donde se confirma que hace falta normas o metodologías para la gestión de la demanda estratégica de la TI. En base a estos resultados se ha construido un marco de trabajo para todo el proceso de la gestión de la demanda de la TI y como una solución que se plantea en esta tesis doctoral, consiste en la elaboración de una metodología, combinando e integrando marcos de trabajo y estándares relacionados con la gobernanza corporativa de la TI. La metodología propuesta está conformada por tres fases, cada fase con sus actividades principales, y cada actividad principal por un conjunto de sub-actividades. Además, se establecen los roles y responsabilidades de los altos ejecutivos para cada una de las actividades principales. Esta propuesta debe ser de fácil implantación y aplicable en las organizaciones, permitiendo a estas afrontar con éxito el desarrollo de sus negocios, con una mejor calidad, reduciendo los costes de operación y empleando el menor tiempo posible. La validación de la metodología propuesta se realizó a través de una encuesta online y un estudio de casos. En la encuesta de validación participaron 42 altos ejecutivos de diferentes empresas y el estudio de casos se realizó con 5 empresas internacionales. Las respuestas de los estudios fueron analizados, para determinar la aceptación o el rechazo de la metodología propuesta por los participantes, confirmando la validez y confiabilidad del estudio. Este es uno de los primeros estudios reportado con evidencias empíricas para el proceso de la gestión de la demanda estratégica de la TI. Los resultados de esta investigación han sido publicados en revistas y congresos internacionales. ABSTRACT In recent years, the globalized industrial development, diffusion and strategic use of IT in different sectors has grown exponentially. Proper use of IT has become a major concern for government bodies and organizations. Uncontrolled or mismanaged IT investments or improper IT use may compromise the achievement of an organization’s objectives, competitiveness and sustainability in the medium to long term. Business owners set out to use IT to outperform their competitors, enacting business processes effectively and efficiently. Many organizations have made significant investments in technology in order to achieve their aims. However, the deployment of these investments has not been managed properly in accordance with the policies and plans specified in the organizations’ business plans, and IT services have not been delivered in accordance with the specified objectives. This has generated significant losses and, worse still, has seriously damaged the image of organizations. Accordingly, we believe that IT strategic demand management is one of the key factors for business success which has not been overlooked by the boards of trustees or senior executives of organizations. The research begins with an extensive review of the literature. This review has identified two very important elements: IT demand and supply within the corporate governance of IT. We have found that information related to IT strategic demand management is scant. We conducted an exploratory study to learn how members of the board of directors and senior executives of an organization manage IT strategic demand. The survey, which was taken by 130 respondents, confirmed that standards or methodologies are needed to manage IT strategic demand. Based on the results, we have built a framework for the entire IT demand management process. The solution proposed in this thesis is to develop a methodology, combining and integrating frameworks and standards related to the corporate governance of IT. The proposed methodology is divided into three phases. Each phase is composed of a series of key activities, and each key activity is further split into minor activities. We also establish the roles and responsibilities of senior executives for each of the key activities. This proposal should be easy to implement and apply in organizations, enabling corporations to successfully conduct better quality business, reduce operating costs and save time. The proposed methodology was validated by means of an online survey and a case study. The validation survey was completed by 42 senior executives from different companies, and the case study was conducted at five international companies. The study results were analysed to determine the acceptance or rejection of the proposed methodology by the participants, confirming the validity and reliability of the study. This is one the first studies to report empirical evidence for the process of IT strategic demand management. The results of this research have been published in international journals and conferences.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los objetivos principales de esta Tesis Doctoral fueron estudiar en 4 ensayos los efectos a) del procesado del maíz y la inclusión en los piensos de ingredientes de alta calidad como harina de pescado o fuentes de lactosa en lechones blancos b) inclusión en el pienso de diferentes productos derivados del haba de soja, con diferente contenido de proteína bruta (PB), tamaño de partícula y origen en lechones blancos e ibéricos y c) inclusión en el pienso de lechones ibéricos de ingredientes de alta calidad; forma de presentación del pienso y la duración del suministro del pienso prestárter sobre los parámetros productivos, la digestibilidad de los nutrientes, y las características morfológicas de la mucosa digestiva en lechones blancos e ibéricos recién destetados. En el experimento 1, los efectos de la complejidad del pienso prestárter sobre los parámetros productivos y la digestibilidad total aparente (TTAD) de los nutrientes fueron estudiados en lechones blancos recién destetados. Se utilizaron 10 tratamientos experimentales como resultado de 5 piensos prestárter (21 a 41 d de edad) y 2 piensos estárter (42 a 62 d de edad). Los piensos prestárter consistieron en un control negativo que incluía 40% de maíz crudo, 4% de harina de pescado y 7% de lactosa, un control positivo que incluía 40% de maíz cocido, 10% de harina de pescado, y 14% de lactosa, y 3 piensos adicionales con similares ingredientes que el pienso control positivo pero en los que a) 40% de maíz cocido fue sustituido por el mismo porcentaje de maíz crudo, b) se redujo el nivel de harina de pescado del 10 al 4%, y c) se redujo el nivel de lactosa del 14 al 7%. Cada tratamiento se replicó 6 veces (6 lechones/departamento). De 42 a 62 d de edad, la mitad de cada uno de los 5 piensos prestárter recibió un pienso estándar compuesto por harina de soja- maíz crudo y manteca y la otra mitad un pienso con similar perfil nutricional pero incluyendo un 20% de maíz cocido, 5% de harina de pescado, 1.3% de lactosa, 2% de concentrado de proteína de soja obtenido por fermentación y 1% de aceite de soja en lugar de harina de soja, maíz sin procesar y manteca. La complejidad del pienso no afectó a los parámetros productivos en ninguno de los periodos estudiados, pero el índice de diarreas durante la fase prestárter fue mayor en los lechones que recibieron el pienso control negativo que en los alimentados con cualquiera de los otros piensos (P<0.05). A los 30 días de edad (piensos prestárter), la digestibilidad de la materia orgánica (MO) y de la energía bruta (EB) fue menor (P<0.001) en los lechones que consumieron el pienso control negativo que en los lechones que consumieron cualquiera de los otros piensos. Sin embrago, la digestibilidad fecal de la PB no fue afectada. A los 50 días de edad (piensos estárter), la digestibilidad de los nutrientes fue similar en ambos piesnsos. Se concluye que la utilización de niveles elevados de ingredientes de alta calidad en los piensos no mejora los parámetros productivos de los lechones blancos en ninguno de los períodos estudiados. De 21 a 41 días de edad, el índice de diarreas se redujo y la digestibilidad de los nutrientes aumentó con la utilización de piensos de mayor calidad. Por lo tanto, la utilización de piensos con niveles elevados de ingredientes de calidad para reducir problemas digestivos y por lo tanto, mejorar los parámetros productivos podría estar justificada en algunos casos. En el experimento 2, se estudiaron los efectos de la inclusión en el pienso de harina de soja con diferente contenido de PB (44 vs. 49 % PB), la micronización de la harina de soja de alta proteína (AP-HS; 49% PB) y la utilización de concentrado de proteína de soja (CPS; 65% PB) sobre los parámetros productivos y la TTAD de los nutrientes en lechones blancos recién destetados de 28 a 63 días de edad. De 28 a 49 días de edad (fase I), hubo un pienso control positivo con un 10% de CPS, un pienso control negativo con 14.8% de harina de soja estándar (R-HS; 44% de PB) y otros 4 piensos que incluían 13.3% de AP-HS de origen Americano (USA) o Argentino (ARG) y molidas groseramente (980 μm) o micronizadas (80 μm). Cada tratamiento se replicó 8 veces (6 lechones/departamento). De 49 a 63 días de edad (fase II), todos los lechones recibieron un pienso comercial común en forma de harina. En el global de la fase I, el tratamiento experimental no afectó a ninguno de los parámetros productivos estudiados. Sin embargo, de 28 a 35 días de edad, los lechones alimentados con AP-HS micronizadas tuvieron un mejor índice de conversión (IC; 1.11 vs. 0.98; P<0.05) que los alimentados con AP-HS molidas groseramente. También, de 35 a 42 días de edad, los lechones que recibieron el pienso con AP-HS micronizada tendieron (P=0.08) a consumir más pienso que los lechones que consumieron el pienso con AP-HS molida. Durante la fase II (49 a 63 días de edad), cuando todos los lechones recibieron un pienso común, no se observaron diferencias en productividad de los lechones debido al tratamiento previo. En general, la digestibilidad de los nutrientes a los 35 días de edad fue mayor para los lechones que consumieron CPS que para los lechones que consumieron R-HS con los lechones que consumieron AP-HS en una posición intermedia. La digestibilidad de la PB fue mayor (P≤0.01) para el pienso que contenía CPS que para el promedio de los 5 tratamientos en base a HS. También, la digestibilidad de la MO y de la materia seca (MS) fue mayor para el pienso que contenía AP-HS micronizada o molida groseramente que para el pienso que contenía R-HS. La micronización de la AP-HS no tuvo efecto alguno sobre la digestibilidad de los nutrientes. Se concluye que cuando el CPS sustituye en el pienso a R-HS, la digestibilidad de la PB aumenta pero no tiene efecto alguno sobre los parámetros productivos. La utilización de AP-HS en sustitución de R-HS en el pienso mejora la digestibilidad de los nutrientes pero no afecta a los parámetros productivos. La utilización de harina de soja micronizada en los piensos mejora la eficiencia alimenticia durante la primera semana post-destete pero no tiene efecto alguno sobre la digestibilidad de los nutrientes. En general, la inclusión de productos derivados del haba de soja con un alto valor añadido (CPS o AP-HS) en el pienso presenta pocas ventajas en términos productivos al uso de AP-HS en lechones blancos recién destetados. En el experimento 3, se estudiaron los mismos productos de soja y piensos similares al experimento 2 en lechones ibéricos recién destetados. Además de los parámetros productivos y la TTAD de los nutrientes, en este ensayo se estudió también la digestibilidad ileal aparente (AID) de los nutrientes, así como las características histológicas y morfometría de la mucosa ileal. Cada uno de los 6 tratamientos fue replicado 6 veces (6 lechones/departamento). De 30 a 51 días de edad la fuente de harina de soja no afectó a los parámetros productivos, pero el índice de diarreas fue mayor (P<0.001) y la TTAD y AID de los nutrientes menor en los lechones alimentados con R-HS que en los alimentados con CPS o AP-HS. Sin embargo, no se encontró ninguna diferencia para éstos parámetros entre los piensos que contenían AP-HS y CPS. La TTAD de la MO (P=0.07) y de la EB (P=0.05) tendieron a ser mayores en los piensos basados en AP-HS micronizada que en los basados en AP-HS molida. La TTAD de la EB tendió (P<0.05) a ser mayor para la AP-HS de origen USA que para la AP-HS de origen ARG. Los lechones que consumieron R-HS presentaron villi de menor longitud (P<0.01) que los lechones que consumieron AP-HS o CPS, pero no se observaron diferencias en el caso de los lechones que recibieron los piensos que contenían AP-HS o CPS. Se concluye que la inclusión de AP-HS o CPS en el pienso en sustitución de R-HS reduce el índice de diarreas y mejora la digestibilidad de los nutrientes y las características morfológicas del íleon sin afectar a los parámetros productivos. La utilización de piensos basados en productos derivados del haba de soja con mayor valor añadido (CPS o AP-HS) en sustitución de la R-HS, mejora la TTAD de todos los nutrientes y reduce el índice de diarreas si llegar afectar a los parámetros productivos. En el experimento 4 se estudiaron los efectos del contenido de PB y la complejidad del pienso, la presentación física y la duración del suministro del pienso prestárter sobre los parámetros productivos y la TTAD de los nutrientes en lechones ibéricos recién destetados de 28 a 63 días de edad. Hubo 12 tratamientos experimentales con 2 tipos de pienso (AC; calidad alta y BC: calidad media), 2 presentaciones del pienso (gránulo y harina) y 3 duraciones de suministro del pienso prestárter (7, 14 y 21 días). Desde los 7, 14 y 21 días de experimento (dependiendo del tratamiento), hasta los 35 días, todos los lechones recibieron un pienso comercial en forma de harina. Cada uno de los tratamientos fue replicado 3 veces (6 lechones/departamento). En el global del experimento, la ganancia media diaria (GMD; P<0.05) y el consumo medio diario (CMD; P<0.01) fue menor en los lechones que recibieron el pienso AC que para los que recibieron el pienso de BC, si bien el IC no se vio afectado. La granulación del pienso prestárter no afectó a los crecimientos pero mejoró la eficiencia alimenticia. La utilización del pienso prestárter de 0 a 21 días de prueba mejoró el IC (P<0.05), pero redujo la GMD (P<0.01) en comparación con la utilización de éste pienso solo durante 7 o 14 días. El índice de diarreas tendió a ser mayor (P=0.06) en los lechones alimentados con los piensos AC que en los alimentados con los piensos BC. Asimismo, el índice de diarreas fue superior en los lechones que recibieron el pienso en gránulo que los que los recibieron en harina (P<0.001). Además, el índice de diarreas fue superior en los lechones que recibieron el pienso prestárter durante 14 o 21 días que en los que lo recibieron solo durante 7 días (P<0.01). De 28 a 49 días de edad, la GMD y el IC no se vieron afectados por la complejidad del pienso, pero la presentación en gránulo o el aumento en la duración de suministro del pienso prestárter mejoró el IC (P<0.01). También, en este periodo el índice de diarreas fue mayor en lechones alimentados con piensos granulados que aquellos alimentados con piensos en harina. Asimismo, fue superior para los lechones alimentados con el pienso prestárter durante 14 o 21 días que para los que recibieron éste pienso solo durante 7 días (P<0.01). De 49 a 63 días de edad, los lechones que previamente habían recibido piensos BC crecieron más que los que recibieron piensos AC (P<0.001). Asimismo, los lechones que recibieron el pienso prestárter durante 21 días comieron (P< 0.001) y crecieron menos (P<0.05) presentando una peor eficacia alimenticia (P<0.05) que los lechones que lo recibieron solo durante 7 14 días. La digestibilidad de la MO fue mayor en los lechones alimentados con los piensos AC que en los alimentados con piensos BC (P<0.05). La granulación del pienso mejoró la digestibilidad de los principales nutrientes. Los piensos prestárter AC mejoraron la digestibilidad de los nutrientes pero no la eficiencia alimenticia en lechones ibéricos de 28 a 63 días de edad. La granulación del pienso mejoró la eficiencia alimenticia. El aumento del suministro del pienso prestárter de 7 a 21 días mejoró la eficiencia alimenticia pero redujo la GMD. Por lo tanto, la utilización de piensos granulados de alta calidad durante el periodo prestárter es recomendable en lechones ibéricos, pero solo durante la primera semana post-destete. ABSTRACT The main objectives of this PhD Thesis were to study the effects of a) heat processing (HP) of corn and inclusion of high quality ingredients of animal origin such as fish meal (FM) and dried milk products in the diet, b) inclusion of different soy products varying in crude protein (CP) content, particle size, and origin of the beans in diets for conventional white and Iberian weanling pigs, and c) effects of ingredient quality, feed form, and duration of supply of the phase I diets on growth performance, nutrient digestibility, and intestinal morphology of weanling pigs. In experiment 1, the effect of diet complexity on total tract apparent digestibility (TTAD) and growth performance was studied in piglets from 21 to 62 d of age. There were 10 experimental treatments which resulted from the combination of 5 phase I (21 to 41 d of age) and 2 phase II (42 to 62 d of age) diets. The 5 phase I diets consisted of a negative control diet that contained 40 % raw corn, 4% FM, and 7% lactose (LAC); a positive control diet that contained 40 % HP corn, 10% FM, and 14% LAC, and 3 extra diets that used similar ingredients to those of the positive control diet but in which a) 40% of HP corn was substituted by raw corn, b) 4% FM rather than 10% FM, and c) 7% LAC instead of 14% LAC were included in the diet. Each treatment was replicated 6 times (6 pigs per pen). From 42 to 62 d of age, half of the pens of each of the 5 phase I treatments received a standard soybean meal (SBM)–native corn–lard diet wheras the other half received a diet with similar nutrient profile but that included 20% HP corn, 5% FM, 1.3% lactosa, 2% fermented soy protein concentrate, and 1% soybean oil in substitution of variables amounts of non-processed corn, SBM, and lard. Dietary treatment did not affect piglet performance at any age, but the incidence of post-weaning diarrhea (PWD) was higher during phase I in piglets fed the negative control diet than in piglets fed any of the other diets (P<0.05). At 30 d of age (phase I diets), the TTAD of organic matter (OM) and gross energy (GE) was lower (P<0.001) in pigs fed the negative control diet than in pigs fed the other diets but CP digestibility was not affected. At 50 d of age (phase II diets), dietary treatment did not affect TTAD of any dietary component. It is concluded that the use of high quality ingredients at high levels in the diet did not improve growth performance of piglets at any age. From 21 to 41 d of age, PWD was reduced and nutrient digestibility was increased in pigs fed the more complex diets. Consequently, the inclusion of high levels of high quality ingredients in piglet diets to maximize growth performance might not be justified under all circumstances In experiment 2, the effect of CP content (44 vs. 49 % CP) of SBM, micronization (fine grinding) of the high CP SBM (HP-SBM; 49% CP), and soy protein concentrate (SPC; 65% CP) on TTAD and growth performance was studied in conventional white piglets from 28 to 63 d of age. From 28 to 49 d of age (phase I), there was a positive control diet that included 6.5% CP from SPC and a negative control diet that supplied the same amount of CP as regular SBM (R-SBM; 44% CP) of Argentina (ARG) origin. The other 4 diets included the same amount of dietary CP from 2 sources of HP-SBM (USA or ARG origin), either ground (990 μm) or micronized (60 μm). Each treatment was replicated 8 times (6 pigs per pen). From 49 to 63 d of age (phase II), all pigs were fed a common commercial starter diet. For the entire phase I, type of soy product included in the diet did not affect growth performance of the pigs. However, from 28 to 35 d of age pigs fed the micronized HP-SBM had better feed conversion ratio (FCR; 0.90 vs. 1.01; P<0.05) than pigs fed the ground HP-SBM. Also, from 35 to 42 d of age, average daily feed intake (ADFI) tended to be higher (P=0.08) for pigs fed the micronized HP-SBM than for pigs fed the ground HP-SBM. During phase II, when all the pigs received the same diet, no differences among treatments were observed. In general, the TTAD of nutrients at 35 d of age was higher for the SPC than for the R-SBM diet with the HP-SBM diets being intermediate. The TTAD of CP was higher (83.8% vs. 81.9%; P≤0.01) for the SPC diet than for the average of 5 SBM containing diets. Also, the digestibility of OM and dry matter (DM) was higher (P<0.01) for the HP-SBM, either ground or micronized, than for the R-SBM diet. Micronization of the HP-SBM did not affect nutrient digestibility. It is concluded that when R-SBM was substituted by SPC, CP digestibility was improved but no effects on growth performance were observed. The use of HP-SBM in substitution of R-SBM in the diet improved nutrient digestibility but did not affect piglet performance. The inclusion of micronized HP-SBM in the diet improved FCR during the first week post-weaning but did not affect TTAD of nutrients. Therefore, the inclusion of added value soy products (SPC or micronized SBM) in the diet presents little advantage in terms of growth performance over the use of HP-SBM in pigs weaned at 28 d of age. In experiment 3, the effects of the same sources of soy protein used in experiment 2 on TTAD and growth performance of crossbreed Iberian pigs from 30 to 61 d of age were studied. In addition, the apparent ileal digestibility (AID) of nutrients and mucosa ileum morphology were also determined. Dietary treatment did not affect growth performance of the pigs at any age but from 30 to 51 d of age (phase I diets), PWD was higher (P<0.001) and the TTAD and AID of all nutrients were lower for pigs fed the R-SBM diet than for pigs fed the HP-SBM or the SPC diets. However, no differences between the HP-SBM and the SPC containing diets were detected for digestibility of any dietary component. The TTAD of OM (P=0.07) and GE (P=0.05) tended to be higher for the micronized HP-SBM than for the ground HP-SBM and that of GE was higher (P<0.05) for the USA meal than for the ARG meal. Pigs fed R-SBM had lower villus height (P<0.01) than pigs fed HP-SBM or SPC but no differences in ileal mucosal morphology were detected between SPC and HP-SBM containing diets. It is concluded that feeding the HP-SBM or SPC in substitution of R-SBM reduced PWD and improved nutrient digestibility and ileal morphology in piglets as compared with feeding the R-SBM, but had no effect on growth performance. The inclusion in the diet of added value soy products (micronized SBM or SPC) in substitution of the R-SBM increased the TTAD of all nutrients and reduced PWD but had no advantage in terms of growth performance over the use of ground HP-SBM. In experiment 4, the effect of CP content and ingredient complexity, feed form, and duration of feeding of the phase I diets on growth performance and TTAD of nutrients were studied in Iberian pigs from 28 to 63 d of age. There were 12 dietary treatments with 2 type of feeds (HQ; higher quality and LQ; medium quality), 2 feed forms (pellets vs. mash), and 3 durations of supply (7, 14, and 21 d) of the phase I diets. From d 7, 14, or 21 (depending on treatment) to d 35 of experiment, all pigs received a common diet in mash form. Each treatment was replicated 3 times (6 pigs/pen). For the entire experiment, average daily gain (ADG; P<0.05) and ADFI (P<0.01) were lower with the HQ than with the LQ phase I diets but FCR was not affected. Pelleting of the phase I diets did not affect ADG but improved FCR (P<0.01). Feeding the phase I diets from d 0 to 21 improved FCR (P<0.05) but decreased ADG (P<0.01) as compared with 7 or 14 d of feeding. Post-weaning diarrhea tended to be higher (P=0.06) for pigs fed the HQ diets than for pigs fed the LQ diets and for pigs fed pellets than for pigs fed mash (P<0.001). Also, PWD was higher for pigs fed the phase I diet for 14 or 21 d than for pigs fed this diet for 7 d (P<0.01). From d 0 to 21, ADG and FCR were not affected by feed quality but feeding pellets or increasing the duration of feeding the phase I diets improved FCR (P<0.01). Also, in this period PWD was higher with pellets than with mash and for pigs fed the phase I diets for 14 or 21 d than for pigs fed this diet for only 7 d (P<0.01). From d 21 to 35, pigs previously fed the LQ diet had higher ADG than pigs fed the HQ phase I diets (P<0.001). Also, pigs that were fed the phase I diets for 21 d had lower ADG (P<0.05) and ADFI (P< 0.001) and poor FCR (P<0.05) than pigs fed these diets for 7 or 14 d. Organic matter digestibility was higher for pigs fed the HQ phase I diets than for pigs fed the LQ phase I diets (P<0.05). Pelleting improved TTAD of all nutrients (P<0.01). It is concluded that HQ phase I diets increased TTAD of nutrients but not feed efficiency of Iberian pigs from d 28 to 63 d of age. Also, pelleting improved nutrient digestibility and feed efficiency. Increasing the duration of supply of the phase I diets from 7 to 21 d improved feed efficiency but reduced ADG. Therefore, the use of LQ phase I diets in pellet form for no more than 7 d after weaning is recommended in Iberian pigs.