34 resultados para Aparato urinario
em Universidad Politécnica de Madrid
Resumo:
La actuación de cargas sobre un suelo saturado, produce, en función de la naturaleza de la solicitación, del tipo de suelo y de las condiciones de drenaje del terreno, un incremento de la presión sobre el agua de los intersticios. Se ha abordado el estudio de la generación de dicha presión intersticial a partir de muestras de suelo blando, normalmente consolidadas, procedentes del subsuelo del Puerto de Barcelona. Para ello se han utilizado los datos de una completa campaña experimental utilizando la máquina de ensayo de corte simple, y tras la adecuada interpretación del ensayo, se identifican los aspectos que se consideran clave para el proceso de generación de presión intersticial en el suelo, según las diferentes situaciones de carga actuante. Como conclusión, se plantea la generalización de la clásica ecuación que Skempton formuló hace casi 60 años y que permite interpretar la generación de presión intersticial para el aparato de ensayo triaxial. ncrease in pore pressure depending on the nature of the excitation, the type of soil and the drainage conditions of the ground are generated by loads acting on a saturated soil. It has approached the study of the generation of the pore pressure from usually consolidated soft soil samples from the basement of the Port of Barcelona. Data from an adequate experimental campaign using simple shear machine have been used, and the aspects that are considered key to the process of generation of pore pressure in the soil under different loading conditions acting have been identified. In conclusion, the generalization of Skempton's classical equation (formulated almost 60 years ago) and the interpretation of the pore pressure generation for triaxial test apparatus have been proposed.
Resumo:
La actuación de cargas sobre un suelo saturado, produce, en función de la naturaleza de la solicitación, del tipo de suelo y de las condiciones de drenaje del terreno, un incremento de la presión sobre el agua de los intersticios. Se ha abordado el estudio de la generación de dicha presión intersticial a partir de muestras de suelo blando, normalmente consolidadas, procedentes del subsuelo del Puerto de Barcelona; para ello, se ha realizado una campaña experimental utilizando la máquina de ensayo de corte simple, y tras la adecuada interpretación del ensayo, se identifican los aspectos que se consideran clave para el proceso de generación de presión intersticial en el suelo, según las diferentes situaciones de carga actuante. Como conclusión, se plantea la generalización de la clásica ecuación que Skempton formuló hace casi 60 años para el aparato de ensayo triaxial.
Resumo:
La alimentación del pollo broiler durante la primera semana de vida es de creciente importancia debido a que la edad de sacrificio ha disminuido de forma constante en los últimos años. Además, consumos elevados durante la primera semana de vida mejoran el desarrollo del aparato digestivo de las aves, favoreciendo el crecimiento de las vellosidades intestinales y la eficiencia alimenticia (Lilburn, 1998, Noy et al., 2005). En los últimos años, el mercado dispone de nuevos productos de origen animal obtenidos durante el proceso de obtención de la heparina para uso farmacéutico. Uno de estos productos comerciales (Palbio 50 RD, Bioibérica S.A., Palafolls, Barcelona) está formado por la proteína hidrolizada de la mucosa digestiva de porcino limpia de contenidos intestinales, secada mediante un procedimiento especial que incluye la utilización de harina de soja como excipiente. Recientes estudios han demostrado de forma fehaciente el interés de utilizar este ingrediente en piensos de lechones de primera edad (Lindeman, et al., 2000; Corassa et al., 2007) pero los datos existentes en aves son más limitados. El objetivo de esta investigación fue evaluar los efectos de niveles crecientes de este hidrolizado proteico (PAL) sobre la productividad de pollos que recibían piensos con dos niveles diferentes de lisina total (Lys)
Resumo:
La Región Metropolitana de Madrid (RMM) ha sufrido una gran transformación urbana en el periodo 1985-2007, en el cual ha crecido la población, ha crecido fuertemente el cuerpo físico, pero sobre todo han crecido su coste y su consumo, lo que supone que se ha vuelto más insostenible. Para tratar de comprender esta evolución asimétrica se ensayan sucesivos modelos que tratan de explicar la transformación de la realidad a través de la articulación de las formas de poder y sus políticas asociadas dentro del contexto local-metropolitano. Si se compara la transformación urbana en el periodo 1985-2007 respecto a la registrada durante el desarrollismo previo al presente periodo democrático, se encuentran similitudes, como el amplio consumo de suelo, pero el modelo desarrollista se inscribe en otras lógicas y tiene otros parámetros de contexto y es congruente ya que las últimas décadas del Régimen Franquista se caracterizan por un importantísimo aumento poblacional que se correspondía con el fuerte crecimiento industrial de la RMM. Esa congruencia relativa se pierde en el periodo estudiado, a pesar de que en 1985, se aprueba el Plan General de Ordenación Urbana de Madrid centrado en la ciudad existente y con un crecimiento contenido, y que puede considerarse un modelo abortado. Tras numerosas transformaciones políticas, económicas, sociales y urbanísticas se llega a una situación opuesta a la prevista en el citado Plan. Más de veinte años después, en 2007, se presentan no solo síntomas de agotamiento del modelo finalmente adoptado, sino su quiebra dramática tanto en su dimensión inmobiliario-financiera como del espacio del bienestar. Es precisamente la supresión de los mecanismos de regulación lo que ha caracterizado la evolución de los modelos urbanos, en correspondencia con la desregulación de las actividades económicas y de los flujos de capital propios del modelo "neoliberal". La actual crisis financiera internacional, en especial en algunos países periféricos europeos como España, ha demostrado cómo las políticas económicas que se han llevado a cabo, fuera de toda regulación, han resultado insostenibles. Pero no se trata solo de una crisis económica. En el caso español, de todas las dimensiones de la crisis, destaca la dimensión urbana, o el auge y caída del ciclo inmobiliario, debido a la urbanización intensiva del territorio en relación con el circuito secundario de la acumulación capitalista, habiendo tenido especial incidencia en algunos territorios como la RMM. En la Región Metropolitana de Madrid la situación actual es de crisis urbana, causada principalmente por el divorcio entre las necesidades y la producción de ciudad, pues no se ha basado el crecimiento en la creación de nuevos hogares, u otras cuestiones demográficas, sino en la acumulación de capital a través del crecimiento de la ciudad. Además, dicho crecimiento está conformado por una expansión urbana descontrolada, con mayores requerimientos energéticos que el modelo compacto y complejo tradicional, lo que unido a la escala de los procesos, supone un sistema urbano progresivamente ineficiente. El caso de la RMM resulta paradigmático, ya que la región ha desempeñado un papel como laboratorio de nuevas formas de gobierno y planificación que han dado un mayor protagonismo al espacio, que ha entrado en las dinámicas centrales principalmente por el apoyo al crecimiento físico, a la vez que han confluido circunstancias específicas, como un nuevo impulso al centralismo, lo que ha potenciado ciertas políticas, como considerar la ciudad como motor de crecimiento económico y de competitividad en el concierto europeo y mundial de ciudades. El estudio del papel de la planificación y sus crisis en la sucesión de los modelos, muestra su función nuclear en la propia constitución de estos —es parte fundamental de su aparato de regulación— y su valor no solo para poder entender el periodo, sino para poder proyectar otro futuro urbano. Este enfoque conduce a establecer la relación del planeamiento con las diferentes crisis económicas en el periodo de estudio lo que permite diferenciar tres momentos de dicha relación: la planificación urbanística austera bajo la influencia de la crisis fordista, la salida de la crisis a través de la imposición de un modelo urbano basado en el sobreproducción de espacio urbano, y la entrada en una crisis inmobiliaria y de financiarización en relación a la adopción de un modelo multidimensionalmente insostenible. El análisis de este periodo es la base para apuntar perspectivas que permitan transformar el gobierno urbano hacia un modelo urbano más deseable, o mejor aún, otros futuros posibles, que se enmarcan dentro de la alternativa principal que supone la sostenibilidad. Madrid's Metropolitan Region (MMR) has undergone a major urban transformation in the period 1985-2007, where the population has grown up, the built environment has grown strongly, but mostly its cost and consumption have grown, which means that it has become unsustainable. To try to understand this evolution successive asymmetric models are tested in order to explain the transformation of reality through the articulation of forms of power and its associated policies in that localmetropolitan context. Comparing the urban transformation in the period 1985-2007 to the existing during developmentalism in the current predemocratic period, both have similarities in terms of land consumption, but the previous developmentalism model is part of another logics and has got other context parameters. It is consistent since the last decades of the Franco Regime was characterized by an important population increase that corresponded to strong industrial growth of the MMR. This relative consistency is lost during the study period, although in 1985, with the approval of the Master Plan of Madrid that was focused on the existing city, with a limited growth, and it may be considered an interrupted model. After numerous political, economic, social and urban changes, there is the opposite situation to that foresight under that Plan. Over twenty years later, in 2007, there are not only signs of exhaustion of the model which was finally adopted, but also its dramatic collapse in both real estate and financial dimension of space as well. The urban transformation under analysis has relaunched the hegemony of the sectors that rule the growth of the Madrid's Metropolitan Region and it is supported by decision making and financing of the different administrations with the passivity of the social stakeholders and citizens. This has meant the removal of regulatory mechanisms that have characterized the evolution of urban models, corresponding to the deregulation of economic activities and capital flows according to "neoliberal" model. The current international financial crisis, especially in some European peripheral countries like Spain, has shown how economic policies that have been carried out, without any regulation, have proven unsustainable. But it is not only an economic crisis. In the Spanish case, of all the dimensions of the crisis, it is the urban dimension that is highlighted, or the rise and fall of real estate cycle, due to intensive urbanization of the territory in relation to the secondary circuit of capital accumulation, having had a particular impact in some territories such as the Madrid's Metropolitan Region. In Madrid's Metropolitan Region there is the current situation of urban crisis, mainly caused by the divorce between needs and the city (space) production, because no growth has been based on creating new homes, or other demographic issues, but in the capital accumulation through growth of the city. Furthermore, this growth is made up of urban sprawl, with higher energy requirements than the traditional compact and complex one, which together with the scale of processes, is increasingly an inefficient urban system. The case of Madrid's Metropolitan Region is paradigmatic, since the region has played a role as a laboratory for new forms of governance and planning have given a greater role to space, which has entered the core dynamics supported mainly by physical growth, while specific circumstances have come together as a new impulse to centralization. This has promoted policies such as considering the city as an engine of economic growth and competitiveness in the international and the European hierarchy of cities. The study of the role of planning and crisis in the succession of models, shows its nuclear role in the constitution of these models is a fundamental part of its regulatory apparatus- and also its value not only to understand the period, but to anticipate to other urban future. This approach leads to establish the relationship of planning with the various crises in the study period, allowing three different moments of that relationship: the austere urban planning under the influence of Fordist crisis, the output of the crisis through imposition of an urban model based on the overproduction of urban space, and entry into a housing crisis and financialisation in relation to the adoption of a multi-dimensionally unsustainable model. The analysis of this period is the basis for targeting prospects that translate urban governance towards a more desirable urban model, or better yet, other possible futures, which are part of the main alternative that is sustainability.
Resumo:
Este proyecto tiene por objeto el estudio de la velocidad de detonación (VOD). La VOD es un parámetro característico de los explosivos gracias al cual se pueden conocer muchas propiedades del explosivo, sus funciones, etc. A lo largo del proyecto se explican los diferentes métodos de medición de la VOD, el funcionamiento básico de un aparato de medición llamado Data Trap II, y se analizan los resultados de unos ensayos que se llevaron a cabo en la Marañosa (Instituto Tecnológico) con el explosivo PG2. Para determinar hasta qué punto son fiables los datos obtenidos gracias a los distintos aparatos y métodos de medición, se han calculado los errores entre ensayos. Se concluye que aunque la medida punto a punto es un dato más fiable con un error menor, no permite obtener la información en continuo que resulta de gran valor en la medida en barreno.
Resumo:
El peso específico de las Comunicaciones Ópticas dentro del ámbito de la Ingeniería de Telecomunicación no cesa de crecer. Sus aplicaciones, inicialmente dedicadas a las grandes líneas que enlazan las centrales de conmutación, alcanzan en la actualidad, como se ha mencionado, hasta los mismos hogares. Los progresos en este campo, con una sucesión sin tregua, no sólo se destinan a incrementar la capacidad de transmisión de los sistemas, sino a ampliar la diversidad de los procesos que sobre las señales se efectúan en el dominio óptico. Este dinamismo demanda a los profesionales del sector una revisión y actualización de sus conocimientos que les permitan resolver con soltura las cuestiones de su actividad de ingeniería. Por otra parte, durante los últimos años la importancia de las Comunicaciones Ópticas también se ha reflejado en las diferentes titulaciones de Ingenierías de Telecomunicación, cuyos planes de estudio contemplan esta materia tanto en asignaturas troncales como optativas. A menudo, las fuentes de información disponibles abordan esta disciplina con una orientación principalmente teórica. Profesionales y estudiantes de Ingeniería, pues, frente a esta materia se encuentran unos temas que tratan fenómenos físicos complejos, abundantes en conceptos abstractos y con un florido aparato matemático, pero muchas veces carentes de una visión práctica, importantísima en ingeniería, y que es, en definitiva, lo que se exige a alumnos e ingenieros: saber resolver problemas y cuestiones relacionados con las Comunicaciones Ópticas. Los sistemas de comunicaciones ópticas, y en especial aquellos que utilizan la fibra óptica como medio para la transmisión de información, como se ha dicho, están alcanzando un desarrollo importante en el campo de las telecomunicaciones. Las bondades que ofrece la fibra, de sobra conocidos y mencionados en el apartado que antecede (gran ancho de banda, inmunidad total a las perturbaciones de origen electromagnético, así como la no producción de interferencias, baja atenuación, etc.), han hecho que, hoy en día, sea uno de los campos de las llamadas tecnologías de la información y la comunicación que presente mayor interés por parte de científicos, ingenieros, operadores de telecomunicaciones y, por supuesto, usuarios. Ante esta realidad, el objetivo y justificación de la realización de este proyecto, por tanto, no es otro que el de acercar esta tecnología al futuro ingeniero de telecomunicaciones, y/o a cualquier persona con un mínimo de interés en este tema, y mostrarle de una forma práctica y visual los diferentes fenómenos que tienen lugar en la transmisión de información por medio de fibra óptica, así como los diferentes bloques y dispositivos en que se divide dicha comunicación. Para conseguir tal objetivo, el proyecto fin de carrera aquí presentado tiene como misión el desarrollo de una interfaz gráfica de usuario (GUI, del inglés Graphic User Interface) que permita a aquel que la utilice configurar de manera sencilla cada uno de los bloques en que se compone un enlace punto a punto de fibra óptica. Cada bloque en que se divide este enlace estará compuesto por varias opciones, que al elegir y configurar como se quiera, hará variar el comportamiento del sistema y presentará al usuario los diferentes fenómenos presentes en un sistema de comunicaciones ópticas, como son el ruido, la dispersión, la atenuación, etc., para una mejor comprensión e interiorización de la teoría estudiada. Por tanto, la aplicación, implementada en MATLAB, fruto de la realización de este PFC pretende servir de complemento práctico para las asignaturas dedicadas al estudio de las comunicaciones ópticas a estudiantes en un entorno amigable e intuitivo. Optical Communications in the field of Telecommunications Engineering continues to grow. Its applications, initially dedicated to large central lines that link the switching currently achieved, as mentioned, to the same household nowadays. Progress in this field, with a relentless succession, not only destined to increase the transmission capacity of the systems, but to broaden the diversity of the processes that are performed on the signals in the optical domain. This demands to professionals reviewing and updating their skills to enable them resolve issues easily. Moreover, in recent years the importance of optical communications is also reflected in the different degrees of Telecommunications Engineering, whose curriculum contemplates this area. Often, the information sources available to tackle this discipline mainly theoretical orientation. Engineering professionals and students are faced this matter are few topics discussing complex physical phenomena, and abstract concepts abundant with a flowery mathematical apparatus, but often wotput a practical, important in engineering, and that is what is required of students and engineers: knowing how to solve problems and issues related to optical communications. Optical communications systems, particularly those using optical fiber as a medium for transmission of information, as stated, are reaching a significant development in the field of telecommunications. The advantages offered by the fiber, well known and referred to in the preceding paragraph (high bandwidth, immunity to electromagnetic disturbances of origin and production of non interference, low attenuation, etc..), have made today, is one of the fields of information and communication technology that this increased interest by scientists, engineers, telecommunications operators and, of course, users. Given this reality, the purpose and justification of this project is not other than to bring this technology to the future telecommunications engineer, and / or anyone with a passing interest in this subject, and showing of a practical and various visual phenomena occurring in the transmission of information by optical fiber, as well as different blocks and devices in which said communication is divided. To achieve that objective, the final project presented here has as its mission the development of a graphical user interface (GUI) that allows the user to configure each of the blocks in which divided a point-to-point optical fiber. Each block into which this link will consist of several options to choose and configure it as you like, this will change the behavior of the system and will present to the user with the different phenomena occurring in an optical communication system, such as noise, dispersion, attenuation, etc., for better understanding and internalization of the theory studied. Therefore, the application, implemented in MATLAB, the result of the completion of the thesis is intended to complement practical subjects for the study of optical communications students in a friendly and intuitive environment.
Resumo:
El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.
Resumo:
La Vega Baja de Toledo había sido designada por el Plan General de Ordenación Urbana vigente para ser algo tan útil como el albergue de un populoso barrio de viviendas de protección oficial con su aparato dotacional. Con él se prolongaba la extensión urbana, desde su actual borde deshilachado y desigual hasta las tapias de la antigua Fábrica de Armas, un Conjunto Histórico convertido en Universidad. Con él y con un variado elenco de equipamientos y servicios cuyo detalle quedaba por determinar se pensaba rellenar el hueco que una serie de avatares históricos había ido dejando. Diversas circunstancias que han cobrado cuerpo bajo la forma de nuevas oportunidades han venido a modificar el guión escrito por el planeamiento años atrás, dando opción a que nuevos hechos urbanos puedan modelar ese trozo de ciudad. Son excepcionales los lugares como la Vega Baja y éstos están llamados a cumplir funciones de rango cívico superior, fundamentales para la evolución y el progreso de cualquier organismo ciudadano, aunque no siempre se dispone de tales recursos o se acierta en disponerlos para que alcancen sus metas, si es que éstas se consiguen expresar y definir suficientemente. El caso es que este conjunto de realidades y presencias que pueblan y componen la Vega Baja parecen dispuestas a prestar su voz y su discurso a una “obra” coral cuya armonización ha sido el objetivo principal de este Plan Director.
Resumo:
La visión por computador es una parte de la inteligencia artificial que tiene una aplicación industrial muy amplia, desde la detección de piezas defectuosas al control de movimientos de los robots para la fabricación de piezas. En el ámbito aeronáutico, la visión por computador es una herramienta de ayuda a la navegación, pudiendo usarse como complemento al sistema de navegación inercial, como complemento a un sistema de posicionamiento como el GPS, o como sistema de navegación visual autónomo.Este proyecto establece una primera aproximación a los sistemas de visión articial y sus aplicaciones en aeronaves no tripuladas. La aplicación que se desarrollará será la de apoyo al sistema de navegación, mediante una herramienta que a través de las imágenes capturadas por una cámara embarcada, dé la orden al autopiloto para posicionar el aparato frente la pista en la maniobra de aterrizaje.Para poder realizar ese cometido, hay que estudiar las posibilidades y los desarrollos que el mercado ofrece en este campo, así como los esfuerzos investigadores de los diferentes centros de investigación, donde se publican multitud soluciones de visión por computador para la navegación de diferentes vehículos no tripulados, en diferentes entornos. Ese estudio llevará a cabo el proceso de la aplicación de un sistema de visión articial desde su inicio. Para ello, lo primero que se realizará será definir una solución viable dentro de las posibilidades que la literatura permita conocer. Además, se necesitará realizar un estudio de las necesidades del sistema, tanto de hardware como de software, y acudir al mercado para adquirir la opción más adecuada que satisfaga esas necesidades. El siguiente paso es el planteamiento y desarrollo de la aplicación, mediante la defnición de un algoritmo y un programa informático que aplique el algoritmo y analizar los resultados de los ensayos y las simulaciones de la solución. Además, se estudiará una propuesta de integración en una aeronave y la interfaz de la estación de tierra que debe controlar el proceso. Para finalizar, se exponen las conclusiones y los trabajos futuros para continuar la labor de desarrollo de este proyecto.
Resumo:
En este Trabajo fin de master se explicará el funcionamiento de la fotocatálisis que presentan los materiales con adición de óxido de titanio en tamaño de nanopartículas, el cual les confiere ciertas cualidades especiales. Una vez conocido el funcionamiento de la fotocatálisis se estudiará la influencia de ciertos factores, que no han sido tratados en profundidad hasta el momento en los materiales en base cemento, para mejorar las propiedades autolimpiantes, como son; el tipo de cemento o la rugosidad superficial, ya que sin duda, la composición que tenga el cemento y la rugosidad que se le confiera en los acabados, influirá en el comportamiento autolimpiante, por ello se hace necesario un estudio en el que se evaluarán que cementos proporcionan una mayor efectividad en función de sus composición y que rugosidad superficial funciona mejor en la autolimpieza, debido a esto se estudiarán morteros con acabados lisos y con distintas rugosidades hasta 1.5mm de irregularidad. Para poder realizar este estudio se elaborará una caracterización de los morteros, que se utilizarán en la evaluación de las cualidades autolimpiantes, comparándolos con otros de idéntica dosificación, pero sin adición de oxido de titanio. Posteriormente sabiendo cuantitativamente cuales son sus características y si la adición de oxido de titanio modifica alguna de sus propiedades, pasar a evaluar sus características autolimpiantes, esto se hará, añadiendo a las probetas perfectamente curadas por inmersión durante mas de 28 días, distintos colorantes en disoluciones acuosa, como son la Rodamina B y el Azul de metileno. Una vez coloreadas las probetas, se medirá la degradación del color mediante un aparato conocido como espectrofotómetro, el cual nos dirá la variación de color en escala CIELAB. Con estos datos se podrá cuantificar de una manera más o menos precisa cuales son los cementos que presentan unas cualidades autolimpiantes mejores y cuales son los acabados superficiales, que presentan mayor autolimpieza, datos importantes de conocer a la hora de fabricar elementos a los cuales se les quiera dotar de este tipo de cualidades.
Resumo:
El monasterio de Santa María de Melón, fundado en el siglo XII, fue abandonado tras la desamortización de Mendizábal en 1835. Las inclemencias del tiempo y el expolio lo han convertido en una ruina. La ruina ha sido consolidada y es visitable gracias a dos intervenciones realizadas en 2003 y 2010, respectivamente. La iglesia, sin embargo, ha continuado en uso hasta la actualidad. La cabecera es románica y siguió una ampliación gótica, que añadió el crucero y las tres naves. Distintas intervenciones se sucedieron hasta el siglo XVI (para una historia detallada del templo, véase Fernández Rodríguez 2010). A finales del siglo XIX por motivos que se desconocen se hundió toda la parte de los pies de la iglesia, esto es, las tres naves desde el crucero hasta los pies. Se desconocen las causas del hundimiento (no podemos estar de acuerdo con la interpretación de Fernández Rodríguez (2010, 45) que atribuye el hundimiento a una tormenta con aparato eléctrico y vendaval). Sea como fuere, con fecha desconocida se decidió dejar la iglesia ápoda, sin naves, y rematarla con un cuerpo de fachada que está formado por dos cubos macizos entre los que se sitúa la fachada y, en el interior, el coro, Figura 1, A y B.. (La bóveda sobre el coro situada entre ellos debió ser reconstruida.) La particularidad más interesante de esta intervención es que buena parte de los restos de la ruina fueron almacenados en dichos cubos a los pies de la iglesia. Esto se puede verificar en el cubo A de la izquierda mirando a través de las ventanas del husillo de la escalera, cegadas al construir el cubo. Se hizo una cata a unos 4 m de altura, desde el coro, al cubo B de la derecha con el mismo resultado. El cubo A tiene un volumen aproximado de 6×5×12 m3 de volumen. El cubo B tiene una planta algo menor y un volumen de 6×4×12 m3. En la hipótesis de que ambos cubos están rellenos hasta su coronación esto daría un volumen de fábrica de unos 600 m3 (esto parece probable a la luz de la información disponible sobre el cubo izquierdo).
Resumo:
En la presente Tesis Doctoral se ha estudiado el efecto de una metodología para inducir la muda en dos estirpes de gallinas ponedoras comerciales, una ligera y otra semipesada, mediante el suministro de tres alimentos: salvado de trigo, cebada en grano y un pienso comercial de ponedoras aportado en cantidad restringida. Se realizaron dos pruebas en dos lotes diferentes de gallinas. En la primera de ellas se utilizaron 472 animales (236 de cada estirpe) alojados en jaulas con cuatro o seis gallinas por jaula, con una estructura factorial 2 x 3 x 2 (2 estirpes, 3 alimentos, 2 densidades) y una duración total de 32 semanas (4 de muda y 28 de producción posmuda). En la segunda prueba fueron 432 animales los utilizados (216 de cada estirpe), alojados en grupos de cuatro aves por jaula, con una estructura factorial 2 x 3 (2 estirpes, 3 alimentos) y una duración de 27 semanas (4 de muda y 23 de producción postmuda). En los dos experimentos realizados se estudió el efecto del uso de los alimentos citados para inducir de la muda sobre los resultados cuantitativos: pérdida de peso vivo durante la muda e intensidad de puesta, peso medio del huevo y masa de huevo diaria, durante y después de la muda, así como la distribución de la puesta en clases comerciales durante el segundo ciclo de puesta. Así como sobre los resultados cualitativos después de la muda: color de la cáscara de los huevos morenos, espesor de la cáscara, peso específico del huevo, altura del albumen, unidades Haugh y color de la yema. En la primera prueba se estudió, además, el efecto que la inducción de la muda mediante los tres alimentos considerados tuvo sobre la regresión del aparato reproductor de las gallinas durante este período de muda. En el primer experimento se observaron diferencias entre estirpes. Las gallinas ligeras tuvieron una más rápida regresión del aparato reproductor (ovario+oviducto) (P=0,003) que las semipesadas, aunque la regresión total no presentó diferencias significativas. Las gallinas semipesadas tuvieron mejores resultados después de la muda en intensidad de puesta (P<0,0001), en peso medio del huevo (P<0,0001) y en masa de huevo diaria (P=0,0002). También hubo diferencias significativas para las variables cualitativas espesor de la cáscara (mayor en huevos de gallinas semipesadas) mientras que los huevos procedentes de gallinas ligeras presentaron mejores valores de altura del albumen, de unidades Haugh y de color de yema; todas estas variables tuvieron un nivel de significación P<0,0001. El suministro restringido de pienso dio lugar a un mayor porcentaje de pérdida de peso vivo (P<0,0001) aunque la regresión de los órganos del aparato reproductor fue la más baja (P<0,003), no habiéndose encontrado diferencias entre los otros dos alimentos utilizados. Con este alimento también fue más lenta (P<0,0001) la disminución de la puesta durante la muda, aunque fue mayor la producción durante el segundo ciclo (P<0,0001). La única variable cualitativa afectada fue el espesor de cáscara (P<0,0001), con valores más altos en los huevos producidos por las gallinas mudadas con cebada. Los grupos de seis gallinas por jaula produjeron más huevos durante la muda (P<0,0001) aunque después de ésta la densidad de animales no tuvo efecto significativo, como tampoco lo hubo sobre los parámetros de calidad del huevo. En la segunda prueba las gallinas semipesadas experimentaron un menor porcentaje de pérdida de peso corporal (P<0,01) pero tuvieron mayores índices de puesta (P<0,001) y de huevos clasificables (P<0,001) durante la muda. En cambio, durante el segundo ciclo de producción las gallinas ligeras produjeron más huevos (P=0,0041), de menor peso (P<0,02) y con menor consumo de pienso (P<0,001). Los huevos puestos por las gallinas semipesadas tuvieron mayor espesor de cáscara y mayor color de yema, pero peor calidad de albumen (P<0,0001). La mayor pérdida de peso la experimentaron las gallinas mudadas con salvado (P<0,02). La producción durante la muda fue mayor (P<0,001) en las gallinas que consumieron pienso en cantidad restringida y también fueron las que tuvieron menor intensidad de puesta (P<0,006) y masa de huevo diaria (P<0,042) durante el segundo ciclo. El tratamiento de muda no tuvo efecto significativo sobre la calidad del huevo en esta segunda prueba. La principal conclusión que merece destacarse es que es posible inducir la muda a las gallinas ponedoras utilizando alimentos bajos en energía o en proteína, o altos en fibra, con un porcentaje de pérdida de peso vivo no tan alta como las recomendaciones tradicionales, y alcanzar buenos resultados productivos, tanto cuantitativos como cualitativos, durante el segundo ciclo de puesta. ABSTRACT Present Doctoral Thesis has studied the effect of a methodology to induce molting in two strains of commercial laying hens, one light and another semi-heavy one, through the provision of three feed: wheat bran, barley grain and a commercial laying hens feed provided in limited quantity. Two tests were performed in two different lots of layers. In the first 472 animals were used (236 of each strain) housed in cages with four or six hens per cage, with a structure 2 x 3 x 2 factorial (2 strains, 3 meals, 2 densities) and a total duration of 32 weeks (4 of molt and 28 of postmolting). In the second test 432 animals were used (216 each strain), housed in groups of four birds per cage, with a structure factorial 2 x 3 (2 strain, 3 meals) along 27 weeks (4 of molt and 23 of postmolting). In both experiments, we studied the effect of the use of above mentioned foods to induce molting on the quantitative results: body weight lost during the molt and laying index, average egg weight and egg mass daily during and after the molt, as well as on grading in commercial classes during the second laying cycle. As well as on qualitative outcomes after the molt: colour of Brown eggsshell, shell thickness, specific density, albumen height, Haugh units and yolk colour. In the first test was studied, in addition, the effect of induction of molting through the three feed considered on the regression of the reproductive tract of hens during molting period. In the first experiment, differences between strains were observed. Light hens had a faster regression of the reproductive tract (ovary+oviduct) (P=0,003) than semi-heavy hens, although the total regression did not present significant differences. Semi-heavy hens had better outcomes after the molt in laying index (P<0.0001), in average egg weight (P<0.0001) and daily egg mass (P=0, 0002). There were also significant differences for the qualitative variables (higher in semi-heavy hen eggs) as shell thickness while light chicken eggs showed better values of albumen height, Haugh units and yolk color; all these variables had the same level of significance (P<0.0001). Restricted supply of layer feed resulted in a greater percentage of live weight loss (P<0.0001) although the regression of the reproductive organs was the lowest (P<0.003), having not found differences between the other two feed used. With this food decreasing of laying during molting period was also slower (P<0.0001), although production was higher during the second cycle (P < 0.0001). The only qualitative variable affected was shell thickness (P<0.0001), with higher values in the eggs produced by hens molted with barley. Groups of six hens per cage produced more eggs during the moult (P<0.0001) but after this animal density had no significant effect, as neither had it on egg quality parameters. In the second trial hens semi-heavy experienced a lower percentage of body weight loss (P<0.01) but had higher rates of egg production (P<0.001) and of grading eggs (P<0.001) during the moult. On the other hand, during the second production cycle light hens produced more eggs (P=0,0041), of lower weight (P < 0.02) and with less feed intake (P<0.001). Eggs from semi-heavy hens had thicker shell and greater color yolk, but poorer quality of albumen (P<0.0001). The greater weight loss was experimented by the hens molted with wheat bran (P=0.02). Production during molting period was greater (P<0.001) in hens which consumed feed in restricted quantities and were also less the laying index (P=0.006) and daily egg mass (P=0.042) during the second cycle. The molting treatment had no significative effect on the quality of the egg in this second test. The main conclusion that deserves to stand out is that it is possible to induce molting hens using foods low in energy or in protein or high in fiber, with a percentage of live weight loss not as high as the traditional recommendations, and achieve good productive, both quantitative and qualitative results during the second implementation cycle.
Resumo:
El manejo pre-sacrificio es de vital importancia en acuicultura, ya que afecta tanto a las reacciones fisiológicas como a los procesos bioquímicos post mortem, y por tanto al bienestar y a la calidad del producto. El ayuno pre-sacrificio se lleva a cabo de forma habitual en acuicultura, ya que permite el vaciado del aparato digestivo de restos de alimento y heces, reduciendo de esta manera la carga bacteriana en el intestino y la dispersión de enzimas digestivos y potenciales patógenos a la carne. Sin embargo, la duración óptima de este ayuno sin que el pez sufra un estrés innecesario no está clara. Además, se sabe muy poco sobre la mejor hora del día para realizar el sacrificio, lo que a su vez está regido por los ritmos diarios de los parámetros fisiológicos de estrés. Finalmente, se sabe que la temperatura del agua juega un papel muy importante en la fisiología del estrés pero no se ha determinado su efecto en combinación con el ayuno. Además, las actuales recomendaciones en relación a la duración óptima del ayuno previo al sacrificio en peces no suelen considerar la temperatura del agua y se basan únicamente en días y no en grados día (ºC d). Se determinó el efecto del ayuno previo al sacrificio (1, 2 y 3 días, equivalente a 11,1-68,0 grados día) y la hora de sacrificio (08h00, 14h00 y 20h00) en trucha arco iris (Oncorhynchus mykiss) de tamaño comercial en cuatro pruebas usando diferentes temperaturas de agua (Prueba 1: 11,8 ºC; Prueba 2: 19,2 ºC; Prueba 3: 11,1 ºC; y Prueba 4: 22,7 ºC). Se midieron indicadores biométricos, hematológicos, metabólicos y de calidad de la carne. En cada prueba, los valores de los animales ayunados (n=90) se compararon con 90 animales control mantenidos bajo condiciones similares pero nos ayunados. Los resultados sugieren que el ayuno tuvo un efecto significativo sobre los indicadores biométricos. El coeficiente de condición en los animales ayunados fue menor que en los controles después de 2 días de ayuno. El vaciado del aparato digestivo se produjo durante las primeras 24 h de ayuno, encontrándose pequeñas cantidades de alimento después de 48 h. Por otra parte, este vaciado fue más rápido cuando las temperaturas fueron más altas. El peso del hígado de los animales ayunados fue menor y las diferencias entre truchas ayunadas y controles fueron más evidentes a medida que el vaciado del aparato digestivo fue más rápido. El efecto del ayuno hasta 3 días en los indicadores hematológicos no fue significativo. Los niveles de cortisol en plasma resultaron ser altos tanto en truchas ayunadas como en las alimentadas en todas las pruebas realizadas. La concentración media de glucosa varió entre pruebas pero mostró una tendencia a disminuir en animales ayunados a medida que el ayuno progresaba. En cualquier caso, parece que la temperatura del agua jugó un papel muy importante, ya que se encontraron concentraciones más altas durante los días 2 y 3 de ayuno en animales mantenidos a temperaturas más bajas previamente al sacrificio. Los altos niveles de lactato obtenidos en sangre parecen sugerir episodios de intensa actividad muscular pero no se pudo encontrar relación con el ayuno. De la misma manera, el nivel de hematocrito no mostró efecto alguno del ayuno y los leucocitos tendieron a ser más altos cuando los animales estaban menos estresados y cuando su condición corporal fue mayor. Finalmente, la disminución del peso del hígado (índice hepatosomático) en la Prueba 3 no se vio acompañada de una reducción del glucógeno hepático, lo que sugiere que las truchas emplearon una estrategia diferente para mantener constantes los niveles de glucosa durante el periodo de ayuno en esa prueba. En relación a la hora de sacrificio, se obtuvieron niveles más bajos de cortisol a las 20h00, lo que indica que las truchas estaban menos estresadas y que el manejo pre-sacrificio podría resultar menos estresante por la noche. Los niveles de hematocrito fueron también más bajos a las 20h00 pero solo con temperaturas más bajas, sugiriendo que las altas temperaturas incrementan el metabolismo. Ni el ayuno ni la hora de sacrificio tuvieron un efecto significativo sobre la evolución de la calidad de la carne durante los 3 días de almacenamiento. Por el contrario, el tiempo de almacenamiento sí que parece tener un efecto claro sobre los parámetros de calidad del producto final. Los niveles más bajos de pH se alcanzaron a las 24-48 h post mortem, con una lata variabilidad entre duraciones del ayuno (1, 2 y 3 días) en animales sacrificados a las 20h00, aunque no se pudo distinguir ningún patrón común. Por otra parte, la mayor rigidez asociada al rigor mortis se produjo a las 24 h del sacrificio. La capacidad de retención de agua se mostró muy estable durante el período de almacenamiento y parece ser independiente de los cambios en el pH. El parámetro L* de color se incrementó a medida que avanzaba el período de almacenamiento de la carne, mientras que los valores a* y b* no variaron en gran medida. En conclusión, basándose en los resultados hematológicos, el sacrificio a última hora del día parece tener un efecto menos negativo en el bienestar. De manera general, nuestros resultados sugieren que la trucha arco iris puede soportar un período de ayuno previo al sacrificio de hasta 3 días o 68 ºC d sin que su bienestar se vea seriamente comprometido. Es probable que con temperaturas más bajas las truchas pudieran ser ayunadas durante más tiempo sin ningún efecto negativo sobre su bienestar. En cualquier caso, se necesitan más estudios para determinar la relación entre la temperatura del agua y la duración óptima del ayuno en términos de pérdida de peso vivo y la disminución de los niveles de glucosa en sangre y otros indicadores metabólicos. SUMMARY Pre-slaughter handling in fish is important because it affects both physiological reactions and post mortem biochemical processes, and thus welfare and product quality. Pre-slaughter fasting is regularly carried out in aquaculture, as it empties the viscera of food and faeces, thus reducing the intestinal bacteria load and the spread of gut enzymes and potential pathogens to the flesh. However, it is unclear how long rainbow trout can be fasted before suffering unnecessary stress. In addition, very little is known about the best time of the day to slaughter fish, which may in turn be dictated by diurnal rhythms in physiological stress parameters. Water temperature is also known to play a very important role in stress physiology in fish but the combined effect with fasting is unclear. Current recommendations regarding the optimal duration of pre-slaughter fasting do not normally consider water temperature and are only based on days, not degree days (ºC d). The effects of short-term fasting prior to slaughter (1, 2 and 3 days, between 11.1 and 68.0 ºC days) and hour of slaughter (08h00, 14h00 and 20h00) were determined in commercial-sized rainbow trout (Oncorhynchus mykiss) over four trials at different water temperatures (TRIAL 1, 11.8 ºC; TRIAL 2, 19.2 ºC; TRIAL 3, 11.1 ºC; and TRIAL 4, 22.7 ºC). We measured biometric, haematological, metabolic and product quality indicators. In each trial, the values of fasted fish (n=90) were compared with 90 control fish kept under similar conditions but not fasted. Results show that fasting affected biometric indicators. The coefficient of condition in fasted trout was lower than controls 2 days after food deprivation. Gut emptying occurred within the first 24 h after the cessation of feeding, with small traces of digesta after 48 h. Gut emptying was faster at higher water temperatures. Liver weight decreased in food deprived fish and differences between fasted and fed trout were more evident when gut clearance was faster. The overall effect of fasting for up to three days on haematological indicators was small. Plasma cortisol levels were high in both fasted and fed fish in all trials. Plasma glucose response to fasting varied among trials, but it tended to be lower in fasted fish as the days of fasting increased. In any case, it seems that water temperature played a more important role, with higher concentrations at lower temperatures on days 2 and 3 after the cessation of feeding. Plasma lactate levels indicate moments of high muscular activity and were also high, but no variation related to fasting could be found. Haematocrit did not show any significant effect of fasting, but leucocytes tended to be higher when trout were less stressed and when their body condition was higher. Finally, the loss of liver weight was not accompanied by a decrease in liver glycogen (only measured in TRIAL 3), suggesting that a different strategy to maintain plasma glucose levels was used. Regarding the hour of slaughter, lower cortisol levels were found at 20h00, suggesting that trout were less stressed later in the day and that pre-slaughter handling may be less stressful at night. Haematocrit levels were also lower at 20h00 but only at lower temperatures, indicating that higher temperatures increase metabolism. Neither fasting nor the hour of slaughter had a significant effect on the evolution of meat quality during 3 days of storage. In contrast, storage time seemed to have a more important effect on meat quality parameters. The lowest pH was reached 24-48 h post mortem, with a higher variability among fasting durations at 20h00, although no clear pattern could be discerned. Maximum stiffening from rigor mortis occurred after 24 h. The water holding capacity was very stable throughout storage and seemed to be independent of pH changes. Meat lightness (L*) slightly increased during storage and a* and b*-values were relatively stable. In conclusion, based on the haematological results, slaughtering at night may have less of a negative effect on welfare than at other times of the day. Overall, our results suggest that rainbow trout can cope well with fasting up to three days or 68 ºC d prior to slaughter and that their welfare is therefore not seriously compromised. At low water temperatures, trout could probably be fasted for longer periods without negative effects on welfare but more research is needed to determine the relationship between water temperature and days of fasting in terms of loss of live weight and the decrease in plasma glucose and other metabolic indicators.
Resumo:
Este documento desarrolla todas las consideraciones, decisiones y acciones que se han llevado a cabo para diseñar y construir desde cero un sintetizador musical analógico y modular, similar en comportamiento al primer sintetizador existente (Moog Modular) pero aprovechando las ventajas de los nuevos componentes electrónicos y circuitos integrados, con el fin de mejorar las características, rendimiento y tamaño del producto final. El proyecto repasará los conceptos básicos de síntesis musical y las distinta partes (módulos) que conforman un sistema de estas características, a continuación empieza la toma de decisiones necesarias en cualquier proyecto electrónico, con el fin de poner limitaciones al comportamiento de cada parte y del sistema en conjunto, obteniendo un objetivo a cumplir. Una vez decidido ese objetivo se procederá al diseño electrónico del interior del aparato. Se complementa el documento con capítulos adicionales en los que se desglosan los resultados obtenidos en distintas medidas y un posible presupuesto de construcción. Se incluyen además anexos con los resultados de algunos de los resultados intermedios obtenidos (placas de circuito impreso y diseños de los frontales) para ser usados en el caso de que este proyecto sea continuado en el futuro.
Resumo:
La Educación Física tuvo una configuración específica en la instauración del régimen franquista, por intereses ideológicos y políticos, que determinó sus características y evolución. En este estudio se aportan hechos y circunstancias para una mejor comprensión de las razones que llevaron a su dependencia del aparato político del Movimiento, separándola del ámbito educativo al que, en buena lógica, debió ser adscrita.