14 resultados para Incapacidad

em Universidad Politécnica de Madrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La detección temprana del final de la vida útil de un árbol singular es fundamental para la evaluación de los síntomas relacionados con la seguridad, la estabilidad y la integridad del árbol, así como de los riesgos asociados cuando se encuentran cerca de edificios o existe tránsito de personas bajo el mismo. En ocasiones, la situación de los árboles protegidos obliga a decidir sobre su viabilidad en poco tiempo, puesto que un árbol puede morir en pie debido a senescencia intrínseca, por la incidencia de agentes causantes de estrés y por incapacidad para competir con éxito por los recursos. Generalmente, los árboles singulares son monumentales y de edad avanzada, y todos los agentes externos potencialmente causantes de daños son relevantes y deben vigilarse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1997, al abrir la primera época de Urban, Fernando de Terán se hizo eco de una vieja leyenda asociada a la reconstrucción de Londres tras el Gran Incendio de 1666 para vaticinar buen augurio a un urbanismo renaciente. Según ésta, Christopher Wren encontró un fragmento de lápida con la palabra ‘resurgam’ (‘resurgiré’) entre los escombros de San Pablo; interpretándolo como una señal, el arquitecto hizo labrar esta palabra bajo un fénix en el pórtico sur de la nueva catedral. Esta imagen permitía a Terán ilustrar metafóricamente la situación del planeamiento en la encrucijada de un momento histórico en el que confluían un nuevo panorama disciplinar a nivel internacional y la salida de la crisis posterior a 1992 en España: superando un largo período de deslegitimación pública y crítica desde el interior de la profesión, el planeamiento volvía en ese momento a resurgir como técnica y discurso necesario ante el despliegue de formas más complejas de desarrollo territorial y la evidente incapacidad —y miopía— de los postulados de una ‘arquitectura sin urbanismo’ para hacer frente a las nuevas realidades socioespaciales. Como el fénix londinense, la planificación volvía a resurgir de sus cenizas para reactivar la reflexión sobre nuestros futuros urbanos. Este renacimiento debía ser necesariamente múltiple y experimental, el fruto a un tiempo maduro y joven de una larga tradición que ahora germinaba en cien —si no mil— nuevas escuelas y estilos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo se presenta un estudio experimental y numérico de impactos balísticos sobre placas de acero inoxidable martensítico a altas temperaturas (400ºC y 700ºC), que pone de manifiesto la importancia del ablandamiento térmico en simulaciones de impactos a altas temperaturas. Mediante un estudio metalográfico de la zona de impacto, se ha observado la aparición de bandas adiabáticas de cortante formadas por el aumento brusco de la temperatura debido a la acumulación del trabajo plástico en el interior del material. La correcta predicción en la formación de estas bandas durante el proceso de penetración es crítica a la hora de obtener resultados representativos de los experimentos realizados. Basándose en datos experimentales de ensayos previamente realizados, se ha calibrado un modelo de material de Johnson-Cook (JC) para su uso con simulaciones numéricas en el código no lineal de elementos finitos LSDYNA. Mediante estas simulaciones numéricas se demuestra la importancia del ablandamiento térmico en el proceso de perforación de placas, al igual que la incapacidad que un modelo tipo JC tiene para representar el dicho ablandamiento para material estudiado. Esta investigación presenta, finalmente, una modificación a un modelo tipo JC programado como subrutina de material de usuario para LS-DYNA que permite simular correctamente estos procesos de impacto a alta temperatura

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo se presenta un estudio experimental y numérico de impactos balísticos sobre placas de acero inoxidable martensítico a altas temperaturas (400ºC y 700ºC), que pone de manifiesto la importancia del ablandamiento térmico en simulaciones de impactos a altas temperaturas. Mediante un estudio metalográfico de la zona de impacto, se ha observado la aparición de bandas adiabáticas de cortante formadas por el aumento brusco de la temperatura debido a la acumulación del trabajo plástico en el interior del material. La correcta predicción en la formación de estas bandas durante el proceso de penetración es crítica a la hora de obtener resultados representativos de los experimentos realizados. Basándose en datos experimentales de ensayos previamente realizados, se ha calibrado un modelo de material de Johnson-Cook (JC) para su uso con simulaciones numéricas en el código no lineal de elementos finitos LSDYNA. Mediante estas simulaciones numéricas se demuestra la importancia del ablandamiento térmico en el proceso de perforación de placas, al igual que la incapacidad que un modelo tipo JC tiene para representar el dicho ablandamiento para material estudiado. Esta investigación presenta, finalmente, una modificación a un modelo tipo JC programado como subrutina de material de usuario para LS-DYNA que permite simular correctamente estos procesos de impacto a alta temperatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio de las masas de castaño, del cual es objeto nuestro trabajo, comprende 6266 Ha. dentro de una superficie comprendida aproximadamente entre 18000 y 20000 Has., zona eminentemente forestal donde se asocian y viven inagnificante el castaño, alcornoque y encina, juntamente con el olivo y en menos proporción la carcasca ( Qa),s quejigo y rebollo, en rodales aislados pino negral, y en los valles de los arroyos. y.los, álamo blanco con ejemplares de aliso. Hacemos antes que nada esta anotación de las principales especies de esta región, para hacer patente la importancia forestal de la misma y proponer estudios de esta sierra de Aracena, no solamente por lo que se refiere al castaño, especie de gran rendimiento como frutal, merced a la cual viven multitud de familias humildes, sino también y principalmente por lo que se infiere al alcornoque y encina, principales riquezas de dicha región, estimulando el cultivo de las citadas especies por medio de folletos y conferencias de divulgación social, para no solamente seguir extendiendo el área de dichas especies, sino lo que es aún tan importante, saber conservar las masas ya creadas; decimos esto, por la necesidad de que los vecinos de aquella comarca, adquieran los más indispensables conocimientos, para no verse privados con el tiempo de lo que es base de su situación social; las podas abusivas, con el único objeto de aprovechar la madera, el ramoneo y los desmoches de los castaños y en general la escasez de medidas preventivas contra la serie de enfermedades que creemos están aún en vias de desarrollo, a pesar de los danos que muchos anos causan en todos los frutales, hace que llamemos la atención sobre este particular, demostrando una vez más la incapacidad de los particulares para conservar los montes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Organización Mundial de la Salud (OMS) prevé que para el año 2020, el Daño Cerebral Adquirido (DCA) estará entre las 10 causas más comunes de discapacidad. Estas lesiones, dadas sus consecuencias físicas, sensoriales, cognitivas, emocionales y socioeconómicas, cambian dramáticamente la vida de los pacientes y sus familias. Las nuevas técnicas de intervención precoz y el desarrollo de la medicina intensiva en la atención al DCA han mejorado notablemente la probabilidad de supervivencia. Sin embargo, hoy por hoy, las lesiones cerebrales no tienen ningún tratamiento quirúrgico que tenga por objetivo restablecer la funcionalidad perdida, sino que las terapias rehabilitadoras se dirigen hacia la compensación de los déficits producidos. Uno de los objetivos principales de la neurorrehabilitación es, por tanto, dotar al paciente de la capacidad necesaria para ejecutar las Actividades de Vida Diaria (AVDs) necesarias para desarrollar una vida independiente, siendo fundamentales aquellas en las que la Extremidad Superior (ES) está directamente implicada, dada su gran importancia a la hora de la manipulación de objetos. Con la incorporación de nuevas soluciones tecnológicas al proceso de neurorrehabilitación se pretende alcanzar un nuevo paradigma centrado en ofrecer una práctica personalizada, monitorizada y ubicua con una valoración continua de la eficacia y de la eficiencia de los procedimientos y con capacidad de generar conocimientos que impulsen la ruptura del paradigma de actual. Los nuevos objetivos consistirán en minimizar el impacto de las enfermedades que afectan a la capacidad funcional de las personas, disminuir el tiempo de incapacidad y permitir una gestión más eficiente de los recursos. Estos objetivos clínicos, de gran impacto socio-económico, sólo pueden alcanzarse desde una apuesta decidida en nuevas tecnologías, metodologías y algoritmos capaces de ocasionar la ruptura tecnológica necesaria que permita superar las barreras que hasta el momento han impedido la penetración tecnológica en el campo de la rehabilitación de manera universal. De esta forma, los trabajos y resultados alcanzados en la Tesis son los siguientes: 1. Modelado de AVDs: como paso previo a la incorporación de ayudas tecnológicas al proceso rehabilitador, se hace necesaria una primera fase de modelado y formalización del conocimiento asociado a la ejecución de las actividades que se realizan como parte de la terapia. En particular, las tareas más complejas y a su vez con mayor repercusión terapéutica son las AVDs, cuya formalización permitirá disponer de modelos de movimiento sanos que actuarán de referencia para futuros desarrollos tecnológicos dirigidos a personas con DCA. Siguiendo una metodología basada en diagramas de estados UML se han modelado las AVDs 'servir agua de una jarra' y 'coger un botella' 2. Monitorización ubícua del movimiento de la ES: se ha diseñado, desarrollado y validado un sistema de adquisición de movimiento basado en tecnología inercial que mejora las limitaciones de los dispositivos comerciales actuales (coste muy elevado e incapacidad para trabajar en entornos no controlados); los altos coeficientes de correlación y los bajos niveles de error obtenidos en los corregistros llevados a cabo con el sistema comercial BTS SMART-D demuestran la alta precisión del sistema. También se ha realizado un trabajo de investigación exploratorio de un sistema de captura de movimiento de coste muy reducido basado en visión estereoscópica, habiéndose detectado los puntos clave donde se hace necesario incidir desde un punto de vista tecnológico para su incorporación en un entorno real 3. Resolución del Problema Cinemático Inverso (PCI): se ha diseñado, desarrollado y validado una solución al PCI cuando el manipulador se corresponde con una ES humana estudiándose 2 posibles alternativas, una basada en la utilización de un Perceptrón Multicapa (PMC) y otra basada en sistemas Artificial Neuro-Fuzzy Inference Systems (ANFIS). La validación, llevada a cabo utilizando información relativa a los modelos disponibles de AVDs, indica que una solución basada en un PMC con 3 neuronas en la capa de entrada, una capa oculta también de 3 neuronas y una capa de salida con tantas neuronas como Grados de Libertad (GdLs) tenga el modelo de la ES, proporciona resultados, tanto de precisión como de tiempo de cálculo, que la hacen idónea para trabajar en sistemas con requisitos de tiempo real 4. Control inteligente assisted-as-needed: se ha diseñado, desarrollado y validado un algoritmo de control assisted-as-needed para una ortesis robótica con capacidades de actuación anticipatoria de la que existe un prototipo implementado en la actualidad. Los resultados obtenidos demuestran cómo el sistema es capaz de adaptarse al perfil disfuncional del paciente activando la ayuda en instantes anteriores a la ocurrencia de movimientos incorrectos. Esta estrategia implica un aumento en la participación del paciente y, por tanto, en su actividad muscular, fomentándose los procesos la plasticidad cerebral responsables del reaprendizaje o readaptación motora 5. Simuladores robóticos para planificación: se propone la utilización de un simulador robótico assisted-as-needed como herramienta de planificación de sesiones de rehabilitación personalizadas y con un objetivo clínico marcado en las que interviene una ortesis robotizada. Los resultados obtenidos evidencian como, tras la ejecución de ciertos algoritmos sencillos, es posible seleccionar automáticamente una configuración para el algoritmo de control assisted-as-needed que consigue que la ortesis se adapte a los criterios establecidos desde un punto de vista clínico en función del paciente estudiado. Estos resultados invitan a profundizar en el desarrollo de algoritmos más avanzados de selección de parámetros a partir de baterías de simulaciones Estos trabajos han servido para corroborar las hipótesis de investigación planteadas al inicio de la misma, permitiendo, asimismo, la apertura de nuevas líneas de investigación. Summary The World Health Organization (WHO) predicts that by the year 2020, Acquired Brain Injury (ABI) will be among the ten most common ailments. These injuries dramatically change the life of the patients and their families due to their physical, sensory, cognitive, emotional and socio-economic consequences. New techniques of early intervention and the development of intensive ABI care have noticeably improved the survival rate. However, in spite of these advances, brain injuries still have no surgical or pharmacological treatment to re-establish the lost functions. Neurorehabilitation therapies address this problem by restoring, minimizing or compensating the functional alterations in a person disabled because of a nervous system injury. One of the main objectives of Neurorehabilitation is to provide patients with the capacity to perform specific Activities of the Daily Life (ADL) required for an independent life, especially those in which the Upper Limb (UL) is directly involved due to its great importance in manipulating objects within the patients' environment. The incorporation of new technological aids to the neurorehabilitation process tries to reach a new paradigm focused on offering a personalized, monitored and ubiquitous practise with continuous assessment of both the efficacy and the efficiency of the procedures and with the capacity of generating new knowledge. New targets will be to minimize the impact of the sicknesses affecting the functional capabilitiies of the subjects, to decrease the time of the physical handicap and to allow a more efficient resources handling. These targets, of a great socio-economic impact, can only be achieved by means of new technologies and algorithms able to provoke the technological break needed to beat the barriers that are stopping the universal penetration of the technology in the field of rehabilitation. In this way, this PhD Thesis has achieved the following results: 1. ADL Modeling: as a previous step to the incorporation of technological aids to the neurorehabilitation process, it is necessary a first modelling and formalization phase of the knowledge associated to the execution of the activities that are performed as a part of the therapy. In particular, the most complex and therapeutically relevant tasks are the ADLs, whose formalization will produce healthy motion models to be used as a reference for future technological developments. Following a methodology based on UML state-chart diagrams, the ADLs 'serving water from a jar' and 'picking up a bottle' have been modelled 2. Ubiquitous monitoring of the UL movement: it has been designed, developed and validated a motion acquisition system based on inertial technology that improves the limitations of the current devices (high monetary cost and inability of working within uncontrolled environments); the high correlation coefficients and the low error levels obtained throughout several co-registration sessions with the commercial sys- tem BTS SMART-D show the high precision of the system. Besides an exploration of a very low cost stereoscopic vision-based motion capture system has been carried out and the key points where it is necessary to insist from a technological point of view have been detected 3. Inverse Kinematics (IK) problem solving: a solution to the IK problem has been proposed for a manipulator that corresponds to a human UL. This solution has been faced by means of two different alternatives, one based on a Mulilayer Perceptron (MLP) and another based on Artificial Neuro-Fuzzy Inference Systems (ANFIS). The validation of these solutions, carried out using the information regarding the previously generated motion models, indicate that a MLP-based solution, with an architecture consisting in 3 neurons in the input layer, one hidden layer of 3 neurons and an output layer with as many neurons as the number of Degrees of Freedom (DoFs) that the UL model has, is the one that provides the best results both in terms of precission and in terms of processing time, making in idoneous to be integrated within a system with real time restrictions 4. Assisted-as-needed intelligent control: an assisted-as-needed control algorithm with anticipatory actuation capabilities has been designed, developed and validated for a robotic orthosis of which there is an already implemented prototype. Obtained results demonstrate that the control system is able to adapt to the dysfunctional profile of the patient by triggering the assistance right before an incorrect movement is going to take place. This strategy implies an increase in the participation of the patients and in his or her muscle activity, encouraging the neural plasticity processes in charge of the motor learning 5. Planification with a robotic simulator: in this work a robotic simulator is proposed as a planification tool for personalized rehabilitation sessions under a certain clinical criterium. Obtained results indicate that, after the execution of simple parameter selection algorithms, it is possible to automatically choose a specific configuration that makes the assisted-as-needed control algorithm to adapt both to the clinical criteria and to the patient. These results invite researchers to work in the development of more complex parameter selection algorithms departing from simulation batteries Obtained results have been useful to corroborate the hypotheses set out at the beginning of this PhD Thesis. Besides, they have allowed the creation of new research lines in all the studied application fields.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Separated transitional boundary layers appear on key aeronautical processes such as the flow around wings or turbomachinery blades. The aim of this thesis is the study of these flows in representative scenarios of technological applications, gaining knowledge about phenomenology and physical processes that occur there and, developing a simple model for scaling them. To achieve this goal, experimental measurements have been carried out in a low speed facility, ensuring the flow homogeneity and a low disturbances level such that unwanted transitional mechanisms are avoided. The studied boundary layers have been developed on a flat plate, by imposing a pressure gradient by means of contoured walls. They generate an initial acceleration region followed by a deceleration zone. The initial region is designed to obtain at the beginning of the deceleration the Blasius profile, characterized by its momentum thickness, and an edge boundary layer velocity, defining the problem characteristic velocity. The deceleration region is designed to obtain a linear evolution of the edge velocity, thereby defining the characteristic length of the problem. Several experimental techniques, both intrusive (hot wire anemometry, total pressure probes) as nonintrusive (PIV and LDV anemometry, high-speed filming), have been used in order to take advantage of each of them and allow cross-validation of the results. Once the boundary layer at the deceleration beginning has been characterized, ensuring the desired integral parameters and level of disturbance, the evolution of the laminar boundary layer up to the point of separation is studied. It has been compared with integral methods, and numerical simulations. In view of the results a new model for this evolution is proposed. Downstream from the separation, the flow near to the wall is configured as a shear layer that encloses low momentum recirculating fluid. The region where the shear layer remains laminar tends to be positioned to compensate the adverse pressure gradient associated with the imposed deceleration. Under these conditions, the momentum thickness remains almost constant. This laminar shear layer region extends up to where transitional phenomena appear, extension that scales with the momentum thickness at separation. These transitional phenomena are of inviscid type, similar to those found in free shear layers. The transitional region analysis begins with a study of the disturbances evolution in the linear growth region and the comparison of experimental results with a numerical model based on Linear Stability Theory for parallel flows and with data from other authors. The results’ coalescence for both the disturbances growth and the excited frequencies is stated. For the transition final stages the vorticity concentration into vortex blobs is found, analogously to what happens in free shear layers. Unlike these, the presence of the wall and the pressure gradient make the large scale structures to move towards the wall and quickly disappear under certain circumstances. In these cases, the recirculating flow is confined into a closed region saying the bubble is closed or the boundary layer reattaches. From the reattachment point, the fluid shows a configuration in the vicinity of the wall traditionally considered as turbulent. It has been observed that existing integral methods for turbulent boundary layers do not fit well to the experimental results, due to these methods being valid only for fully developed turbulent flow. Nevertheless, it has been found that downstream from the reattachment point the velocity profiles are self-similar, and a model has been proposed for the evolution of the integral parameters of the boundary layer in this region. Finally, the phenomenon known as bubble burst is analyzed. It has been checked the validity of existing models in literature and a new one is proposed. This phenomenon is blamed to the inability of the large scale structures formed after the transition to overcome with the adverse pressure gradient, move towards the wall and close the bubble. El estudio de capas límites transicionales con separación es de gran relevancia en distintas aplicaciones tecnológicas. Particularmente, en tecnología aeronáutica, aparecen en procesos claves, tales como el flujo alrededor de alas o álabes de turbomaquinaria. El objetivo de esta tesis es el estudio de estos flujos en situaciones representativas de las aplicaciones tecnológicas, ganando por un lado conocimiento sobre la fenomenología y los procesos físicos que aparecen y, por otra parte, desarrollando un modelo sencillo para el escalado de los mismos. Para conseguir este objetivo se han realizado ensayos en una instalación experimental de baja velocidad específicamente diseñada para asegurar un flujo homogéneo y con bajo nivel de perturbaciones, de modo que se evita el disparo de mecanismos transicionales no deseados. La capa límite bajo estudio se ha desarrollado sobre una placa plana, imponiendo un gradiente de presión a la misma por medio de paredes de geometría especificada. éstas generan una región inicial de aceleración seguida de una zona de deceleración. La región inicial se diseña para tener en al inicio de la deceleración un perfil de capa límite de Blasius, caracterizado por su espesor de cantidad de movimiento, y una cierta velocidad externa a la capa límite que se considera la velocidad característica del problema. La región de deceleración está concebida para que la variación de la velocidad externa a la capa límite sea lineal, definiendo de esta forma una longitud característica del problema. Los ensayos se han realizado explotando varias técnicas experimentales, tanto intrusivas (anemometría de hilo caliente, sondas de presión total) como no intrusivas (anemometrías láser y PIV, filmación de alta velocidad), de cara a aprovechar las ventajas de cada una de ellas y permitir validación cruzada de resultados entre las mismas. Caracterizada la capa límite al comienzo de la deceleración, y garantizados los parámetros integrales y niveles de perturbación deseados se procede al estudio de la zona de deceleración. Se presenta en la tesis un análisis de la evolución de la capa límite laminar desde el inicio de la misma hasta el punto de separación, comparando con métodos integrales, simulaciones numéricas, y proponiendo un nuevo modelo para esta evolución. Aguas abajo de la separación, el flujo en las proximidades de la pared se configura como una capa de cortadura que encierra una región de fluido recirculatorio de baja cantidad de movimiento. Se ha caracterizado la región en que dicha capa de cortadura permanece laminar, encontrando que se posiciona de modo que compensa el gradiente adverso de presión asociado a la deceleración de la corriente. En estas condiciones, el espesor de cantidad de movimiento permanece prácticamente constante y esta capa de cortadura laminar se extiende hasta que los fenómenos transicionales aparecen. Estos fenómenos son de tipo no viscoso, similares a los que aparecen en una capa de cortadura libre. El análisis de la región transicional comienza con un estudio de la evolución de las vii viii RESUMEN perturbaciones en la zona de crecimiento lineal de las mismas y la comparación de los resultados experimentales con un modelo numérico y con datos de otros autores. La coalescencia de los resultados tanto para el crecimiento de las perturbaciones como para las frecuencias excitadas queda demostrada. Para los estadios finales de la transición se observa la concentración de la vorticidad en torbellinos, de modo análogo a lo que ocurre en capas de cortadura libres. A diferencia de estas, la presencia de la pared y del gradiente de presión hace que, bajo ciertas condiciones, la gran escala se desplace hacia la pared y desaparezca rápidamente. En este caso el flujo recirculatorio queda confinado en una región cerrada y se habla de cierre de la burbuja o readherencia de la capa límite. A partir del punto de readherencia se tiene una configuración fluida en las proximidades de la pared que tradicionalmente se ha considerado turbulenta. Se ha observado que los métodos integrales existentes para capas límites turbulentas no ajustan bien a las medidas experimentales realizadas, hecho imputable a que no se obtiene en dicha región un flujo turbulento plenamente desarrollado. Se ha encontrado, sin embargo, que pasado el punto de readherencia los perfiles de velocidad próximos a la pared son autosemejantes entre sí y se ha propuesto un modelo para la evolución de los parámetros integrales de la capa límite en esta región. Finalmente, el fenómeno conocido como “estallido” de la burbuja se ha analizado. Se ha comprobado la validez de los modelos existentes en la literatura y se propone uno nuevo. Este fenómeno se achaca a la incapacidad de la gran estructura formada tras la transición para vencer el gradiente adverso de presión, desplazarse hacia la pared y cerrar la burbuja.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

as aportaciones más significativas que, a mi entender, presenta la tesis doctoral que ahora considero y que, en mi opinión, tienen mayor originalidad, frente a los lugares comunes corrientemente admitidos, son las siguientes; 1.Propuesta de una nueva valoración no racionalista de la arquitectura de vanguardia proyectada en, Madrid durante las décadas de los años 1920 y 1930; 2 . Abandono del enfoque único hecho hasta ahora de toda la arquitectura de ese período, a la luz de un supuesto racionalismo unívocamente aceptado, sin análisis riguroso del término; 3. Consideración de una definición del Racionalismo Arquitectónico, entendido como culminación de un proceso histórico, aclarando sus principios y rechazando un nominalismo apresurado y no siempre coherente; 4. Planteamiento del "Movimiento Moderno" como salida posible del imposible Racionalismo Arquitectónico Puro, con generalización del fenómeno que se manifiesta en Madrid, al resto de España y a toda Europa; 5. Poner de manifiesto la radical incoherencia deformadora de la realidad que supone la asimilación del concepto "Racionalismo Arquitectónico" y la "Solución poética" propugnada por Le Corbusier en sus escritos, manifestaciones y realizaciones; 6. Mantener la idea de que el apartamiento de los radicales principios del Sediciente "Movimiento Racionalista" por parte de los arquitectos madrileños del "Movimiento Moderno", fué un abandono crítico y voluntario más que una dejación o incapacidad, como ha venido repitiéndose sin mayores análisis; 7. Rechazo del tópico de una pretendida falta de interés y movimiento por parte de los arquitectos madrileños en ese momento de cuanto en el terreno de la arquitectura moderna ocurría en aquel período en el resto de Europa, como reflejo de una generalizada desinformación y un desinterés español por lo "europeo", confundiendo Europa con Francia e ignorando el constante interés de los intelectuales madrileños por la actividad cultural austríaca, alemana, holandesa e inglesa, y no tan sólo por Italia o Francia; 8. Afirmación crítica objetiva de la subjetividad de lo autores que han escrito sobre estos temas en los últimos años en España, en determinados casos de sectarismo que se hace patente; 9. Defensa de la independencia y libertad de criterio de los Arquitectos del Movimiento Modernos madrileño frente a los fenómenos coyunturales políticos que se sucedieron en España durante las décadas de los años veinte y treinta del siglo XX; 10. Constatación, con aportación de datos concretos, de la Intensa Relación mantenida por los arquitectos del "Movimiento Moderno" en Madrid con los arquitectos de igual tendencia general en el resto de Europa, a través de contactos recíprocos y continuos; 11. Nueva valoración de los arquitectos madrileños de este movimiento y de sus obras, con independencia de su adhesión a los postulados de Le Corbusier (identificados con el pretendido racionalismo arquitectónico), subrayando su carácter de adelantados de la arquitectura contemporánea española y el consecuente reconocimiento y agradecimiento que su valor merece. No quiero dejar de señalar tampoco la importante documentación que la tesis aporta, en muchos casos inédita hasta este momento y, en todo caso, nunca reunida en un "corpus"unitario hasta el presente, así como los escritos originales redactados para esta tesis por algunos de los arquitectos estudiados, documentos que tienen un indudable interés crítico y que arrojan nueva luz sobre el tema estudiado en esta tesis, y apoyan,incuestionablemente, las conclusiones que en ella se mantienen

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo de tesis se propone un esquema de votación telemática, de carácter paneuropeo y transnacional, que es capaz de satisfacer las más altas exigencias en materia de seguridad. Este enfoque transnacional supone una importante novedad que obliga a identificar a los ciudadanos más allá de las fronteras de su país, exigencia que se traduce en la necesidad de que todos los ciudadanos europeos dispongan de una identidad digital y en que ésta sea reconocida más allá de las fronteras de su país de origen. Bajo estas premisas, la propuesta recogida en esta tesis se aborda desde dos vertientes complementarias: por una parte, el diseño de un esquema de votación capaz de conquistar la confianza de gobiernos y ciudadanos europeos y, por otra, la búsqueda de una respuesta al problema de interoperabilidad de Sistemas de Gestión de Identidad (IDMs), en consonancia con los trabajos que actualmente realiza la UE para la integración de los servicios proporcionados por las Administraciones Públicas de los distintos países europeos. El punto de partida de este trabajo ha sido la identificación de los requisitos que determinan el adecuado funcionamiento de un sistema de votación telemática para, a partir de ellos,proponer un conjunto de elementos y criterios que permitan, por una parte, establecer comparaciones entre distintos sistemas telemáticos de votación y, por otra, evaluar la idoneidad del sistema propuesto. A continuación se han tomado las más recientes y significativas experiencias de votación telemática llevadas a cabo por diferentes países en la automatización de sus procesos electorales, analizándolas en profundidad para demostrar que, incluso en los sistemas más recientes, todavía subsisten importantes deficiencias relativas a la seguridad. Asimismo, se ha constatado que un sector importante de la población se muestra receloso y, a menudo, cuestiona la validez de los resultados publicados. Por tanto, un sistema que aspire a ganarse la confianza de ciudadanos y gobernantes no sólo debe operar correctamente, trasladando los procesos tradicionales de votación al contexto telemático, sino que debe proporcionar mecanismos adicionales que permitan superar los temores que inspira el nuevo sistema de votación. Conforme a este principio, el enfoque de esta tesis, se orienta, en primer lugar, hacia la creación de pruebas irrefutables, entendibles y auditables a lo largo de todo el proceso de votación, que permitan demostrar con certeza y ante todos los actores implicados en el proceso (gobierno, partidos políticos, votantes, Mesa Electoral, interventores, Junta Electoral,jueces, etc.) que los resultados publicados son fidedignos y que no se han violado los principios de anonimato y de “una persona, un voto”. Bajo este planteamiento, la solución recogida en esta tesis no sólo prevé mecanismos para minimizar el riesgo de compra de votos, sino que además incorpora mecanismos de seguridad robustos que permitirán no sólo detectar posibles intentos de manipulación del sistema, sino también identificar cuál ha sido el agente responsable. De forma adicional, esta tesis va más allá y traslada el escenario de votación a un ámbito paneuropeo donde aparecen nuevos problemas. En efecto, en la actualidad uno de los principales retos a los que se enfrentan las votaciones de carácter transnacional es sin duda la falta de procedimientos rigurosos y dinámicos para la actualización sincronizada de los censos de votantes de los distintos países que evite la presencia de errores que redunden en la incapacidad de controlar que una persona emita más de un voto, o que se vea impedido del todo a ejercer su derecho. Este reconocimiento de la identidad transnacional requiere la interoperabilidad entre los IDMs de los distintos países europeos. Para dar solución a este problema, esta tesis se apoya en las propuestas emergentes en el seno de la UE, que previsiblemente se consolidarán en los próximos años, tanto en materia de identidad digital (con la puesta en marcha de la Tarjeta de Ciudadano Europeo) como con el despliegue de una infraestructura de gestión de identidad que haga posible la interoperabilidad de los IDMs de los distintos estados miembros. A partir de ellas, en esta tesis se propone una infraestructura telemática que facilita la interoperabilidad de los sistemas de gestión de los censos de los distintos estados europeos en los que se lleve a cabo conjuntamente la votación. El resultado es un sistema versátil, seguro, totalmente robusto, fiable y auditable que puede ser aplicado en elecciones paneuropeas y que contempla la actualización dinámica del censo como una parte crítica del proceso de votación. ABSTRACT: This Ph. D. dissertation proposes a pan‐European and transnational system of telematic voting that is capable of meeting the strictest security standards. This transnational approach is a significant innovation that entails identifying citizens beyond the borders of their own country,thus requiring that all European citizens must have a digital identity that is recognized beyond the borders of their country of origin. Based on these premises, the proposal in this thesis is analyzed in two mutually‐reinforcing ways: first, a voting system is designed that is capable of winning the confidence of European governments and citizens and, second, a solution is conceived for the problem of interoperability of Identity Management Systems (IDMs) that is consistent with work being carried out by the EU to integrate the services provided by the public administrations of different European countries. The starting point of this paper is to identify the requirements for the adequate functioning of a telematic voting system and then to propose a set of elements and criteria that will allow for making comparisons between different such telematic voting systems for the purpose of evaluating the suitability of the proposed system. Then, this thesis provides an in‐depth analysis of most recent significant experiences in telematic voting carried out by different countries with the aim of automating electoral processes, and shows that even the most recent systems have significant shortcomings in the realm of security. Further, a significant portion of the population has shown itself to be wary,and they often question the validity of the published results. Therefore, a system that aspires to win the trust of citizens and leaders must not only operate correctly by transferring traditional voting processes into a telematic environment, but must also provide additional mechanisms that can overcome the fears aroused by the new voting system. Hence, this thesis focuses, first, on creating irrefutable, comprehensible and auditable proof throughout the voting process that can demonstrate to all actors in the process – the government, political parties, voters, polling station workers, electoral officials, judges, etc. ‐that the published results are accurate and that the principles of anonymity and one person,one vote, have not been violated. Accordingly, the solution in this thesis includes mechanisms to minimize the risk of vote buying, in addition to robust security mechanisms that can not only detect possible attempts to manipulate the system, but also identify the responsible party. Additionally, this thesis goes one step further and moves the voting scenario to a pan‐European scale, in which new problems appear. Indeed, one of the major challenges at present for transnational voting processes is the lack of rigorous and dynamic procedures for synchronized updating of different countries’ voter rolls, free from errors that may make the system unable to keep an individual from either casting more than one vote, or from losing the effective exercise of the right to vote. This recognition of transnational identity requires interoperability between the IDMs of different European countries. To solve the problem, this thesis relies on proposals emerging within the EU that are expected to take shape in the coming years, both in digital identity – with the launch of the European Citizen Card – and in the deployment of an identity management infrastructure that will enable interoperability of the IDMs of different member states. Based on these, the thesis proposes a telematic infrastructure that will achieve interoperability of the census management systems of European states in which voting processes are jointly carried out. The result is a versatile, secure, totally robust, reliable and auditable system that can be applied in pan‐European election, and that includes dynamic updating of the voter rolls as a critical part of the voting process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is easy to get frustrated at spoken conversational agents (SCAs), perhaps because they seem to be callous. By and large, the quality of human-computer interaction is affected due to the inability of the SCAs to recognise and adapt to user emotional state. Now with the mass appeal of artificially-mediated communication, there has been an increasing need for SCAs to be socially and emotionally intelligent, that is, to infer and adapt to their human interlocutors’ emotions on the fly, in order to ascertain an affective, empathetic and naturalistic interaction. An enhanced quality of interaction would reduce users’ frustrations and consequently increase their satisfactions. These reasons have motivated the development of SCAs towards including socio-emotional elements, turning them into affective and socially-sensitive interfaces. One barrier to the creation of such interfaces has been the lack of methods for modelling emotions in a task-independent environment. Most emotion models for spoken dialog systems are task-dependent and thus cannot be used “as-is” in different applications. This Thesis focuses on improving this, in which it concerns computational modeling of emotion, personality and their interrelationship for task-independent autonomous SCAs. The generation of emotion is driven by needs, inspired by human’s motivational systems. The work in this Thesis is organised in three stages, each one with its own contribution. The first stage involved defining, integrating and quantifying the psychological-based motivational and emotional models sourced from. Later these were transformed into a computational model by implementing them into software entities. The computational model was then incorporated and put to test with an existing SCA host, a HiFi-control agent. The second stage concerned automatic prediction of affect, which has been the main challenge towards the greater aim of infusing social intelligence into the HiFi agent. In recent years, studies on affect detection from voice have moved on to using realistic, non-acted data, which is subtler. However, it is more challenging to perceive subtler emotions and this is demonstrated in tasks such as labelling and machine prediction. In this stage, we attempted to address part of this challenge by considering the roles of user satisfaction ratings and conversational/dialog features as the respective target and predictors in discriminating contentment and frustration, two types of emotions that are known to be prevalent within spoken human-computer interaction. The final stage concerned the evaluation of the emotional model through the HiFi agent. A series of user studies with 70 subjects were conducted in a real-time environment, each in a different phase and with its own conditions. All the studies involved the comparisons between the baseline non-modified and the modified agent. The findings have gone some way towards enhancing our understanding of the utility of emotion in spoken dialog systems in several ways; first, an SCA should not express its emotions blindly, albeit positive. Rather, it should adapt its emotions to user states. Second, low performance in an SCA may be compensated by the exploitation of emotion. Third, the expression of emotion through the exploitation of prosody could better improve users’ perceptions of an SCA compared to exploiting emotions through just lexical contents. Taken together, these findings not only support the success of the emotional model, but also provide substantial evidences with respect to the benefits of adding emotion in an SCA, especially in mitigating users’ frustrations and ultimately improving their satisfactions. Resumen Es relativamente fácil experimentar cierta frustración al interaccionar con agentes conversacionales (Spoken Conversational Agents, SCA), a menudo porque parecen ser un poco insensibles. En general, la calidad de la interacción persona-agente se ve en cierto modo afectada por la incapacidad de los SCAs para identificar y adaptarse al estado emocional de sus usuarios. Actualmente, y debido al creciente atractivo e interés de dichos agentes, surge la necesidad de hacer de los SCAs unos seres cada vez más sociales y emocionalmente inteligentes, es decir, con capacidad para inferir y adaptarse a las emociones de sus interlocutores humanos sobre la marcha, de modo que la interacción resulte más afectiva, empática y, en definitiva, natural. Una interacción mejorada en este sentido permitiría reducir la posible frustración de los usuarios y, en consecuencia, mejorar el nivel de satisfacción alcanzado por los mismos. Estos argumentos justifican y motivan el desarrollo de nuevos SCAs con capacidades socio-emocionales, dotados de interfaces afectivas y socialmente sensibles. Una de las barreras para la creación de tales interfaces ha sido la falta de métodos de modelado de emociones en entornos independientes de tarea. La mayoría de los modelos emocionales empleados por los sistemas de diálogo hablado actuales son dependientes de tarea y, por tanto, no pueden utilizarse "tal cual" en diferentes dominios o aplicaciones. Esta tesis se centra precisamente en la mejora de este aspecto, la definición de modelos computacionales de las emociones, la personalidad y su interrelación para SCAs autónomos e independientes de tarea. Inspirada en los sistemas motivacionales humanos en el ámbito de la psicología, la tesis propone un modelo de generación/producción de la emoción basado en necesidades. El trabajo realizado en la presente tesis está organizado en tres etapas diferenciadas, cada una con su propia contribución. La primera etapa incluyó la definición, integración y cuantificación de los modelos motivacionales de partida y de los modelos emocionales derivados a partir de éstos. Posteriormente, dichos modelos emocionales fueron plasmados en un modelo computacional mediante su implementación software. Este modelo computacional fue incorporado y probado en un SCA anfitrión ya existente, un agente con capacidad para controlar un equipo HiFi, de alta fidelidad. La segunda etapa se orientó hacia el reconocimiento automático de la emoción, aspecto que ha constituido el principal desafío en relación al objetivo mayor de infundir inteligencia social en el agente HiFi. En los últimos años, los estudios sobre reconocimiento de emociones a partir de la voz han pasado de emplear datos actuados a usar datos reales en los que la presencia u observación de emociones se produce de una manera mucho más sutil. El reconocimiento de emociones bajo estas condiciones resulta mucho más complicado y esta dificultad se pone de manifiesto en tareas tales como el etiquetado y el aprendizaje automático. En esta etapa, se abordó el problema del reconocimiento de las emociones del usuario a partir de características o métricas derivadas del propio diálogo usuario-agente. Gracias a dichas métricas, empleadas como predictores o indicadores del grado o nivel de satisfacción alcanzado por el usuario, fue posible discriminar entre satisfacción y frustración, las dos emociones prevalentes durante la interacción usuario-agente. La etapa final corresponde fundamentalmente a la evaluación del modelo emocional por medio del agente Hifi. Con ese propósito se llevó a cabo una serie de estudios con usuarios reales, 70 sujetos, interaccionando con diferentes versiones del agente Hifi en tiempo real, cada uno en una fase diferente y con sus propias características o capacidades emocionales. En particular, todos los estudios realizados han profundizado en la comparación entre una versión de referencia del agente no dotada de ningún comportamiento o característica emocional, y una versión del agente modificada convenientemente con el modelo emocional propuesto. Los resultados obtenidos nos han permitido comprender y valorar mejor la utilidad de las emociones en los sistemas de diálogo hablado. Dicha utilidad depende de varios aspectos. En primer lugar, un SCA no debe expresar sus emociones a ciegas o arbitrariamente, incluso aunque éstas sean positivas. Más bien, debe adaptar sus emociones a los diferentes estados de los usuarios. En segundo lugar, un funcionamiento relativamente pobre por parte de un SCA podría compensarse, en cierto modo, dotando al SCA de comportamiento y capacidades emocionales. En tercer lugar, aprovechar la prosodia como vehículo para expresar las emociones, de manera complementaria al empleo de mensajes con un contenido emocional específico tanto desde el punto de vista léxico como semántico, ayuda a mejorar la percepción por parte de los usuarios de un SCA. Tomados en conjunto, los resultados alcanzados no sólo confirman el éxito del modelo emocional, sino xv que constituyen además una evidencia decisiva con respecto a los beneficios de incorporar emociones en un SCA, especialmente en cuanto a reducir el nivel de frustración de los usuarios y, en última instancia, mejorar su satisfacción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La demanda de contenidos de vídeo ha aumentado rápidamente en los últimos años como resultado del gran despliegue de la TV sobre IP (IPTV) y la variedad de servicios ofrecidos por los operadores de red. Uno de los servicios que se ha vuelto especialmente atractivo para los clientes es el vídeo bajo demanda (VoD) en tiempo real, ya que ofrece una transmisión (streaming) inmediata de gran variedad de contenidos de vídeo. El precio que los operadores tienen que pagar por este servicio es el aumento del tráfico en las redes, que están cada vez más congestionadas debido a la mayor demanda de contenidos de VoD y al aumento de la calidad de los propios contenidos de vídeo. Así, uno de los principales objetivos de esta tesis es encontrar soluciones que reduzcan el tráfico en el núcleo de la red, manteniendo la calidad del servicio en el nivel adecuado y reduciendo el coste del tráfico. La tesis propone un sistema jerárquico de servidores de streaming en el que se ejecuta un algoritmo para la ubicación óptima de los contenidos de acuerdo con el comportamiento de los usuarios y el estado de la red. Debido a que cualquier algoritmo óptimo de distribución de contenidos alcanza un límite en el que no se puede llegar a nuevas mejoras, la inclusión de los propios clientes del servicio (los peers) en el proceso de streaming puede reducir aún más el tráfico de red. Este proceso se logra aprovechando el control que el operador tiene en las redes de gestión privada sobre los equipos receptores (Set-Top Box) ubicados en las instalaciones de los clientes. El operador se reserva cierta capacidad de almacenamiento y streaming de los peers para almacenar los contenidos de vídeo y para transmitirlos a otros clientes con el fin de aliviar a los servidores de streaming. Debido a la incapacidad de los peers para sustituir completamente a los servidores de streaming, la tesis propone un sistema de streaming asistido por peers. Algunas de las cuestiones importantes que se abordan en la tesis son saber cómo los parámetros del sistema y las distintas distribuciones de los contenidos de vídeo en los peers afectan al rendimiento general del sistema. Para dar respuesta a estas preguntas, la tesis propone un modelo estocástico preciso y flexible que tiene en cuenta parámetros como las capacidades de enlace de subida y de almacenamiento de los peers, el número de peers, el tamaño de la biblioteca de contenidos de vídeo, el tamaño de los contenidos y el esquema de distribución de contenidos para estimar los beneficios del streaming asistido por los peers. El trabajo también propone una versión extendida del modelo matemático mediante la inclusión de la probabilidad de fallo de los peers y su tiempo de recuperación en el conjunto de parámetros del modelo. Estos modelos se utilizan como una herramienta para la realización de exhaustivos análisis del sistema de streaming de VoD asistido por los peers para la amplia gama de parámetros definidos en los modelos. Abstract The demand of video contents has rapidly increased in the past years as a result of the wide deployment of IPTV and the variety of services offered by the network operators. One of the services that has especially become attractive to the customers is real-time Video on Demand (VoD) because it offers an immediate streaming of a large variety of video contents. The price that the operators have to pay for this convenience is the increased traffic in the networks, which are becoming more congested due to the higher demand for VoD contents and the increased quality of the videos. Therefore, one of the main objectives of this thesis is finding solutions that would reduce the traffic in the core of the network, keeping the quality of service on satisfactory level and reducing the traffic cost. The thesis proposes a system of hierarchical structure of streaming servers that runs an algorithm for optimal placement of the contents according to the users’ behavior and the state of the network. Since any algorithm for optimal content distribution reaches a limit upon which no further improvements can be made, including service customers themselves (the peers) in the streaming process can further reduce the network traffic. This process is achieved by taking advantage of the control that the operator has in the privately managed networks over the Set-Top Boxes placed at the clients’ premises. The operator reserves certain storage and streaming capacity on the peers to store the video contents and to stream them to the other clients in order to alleviate the streaming servers. Because of the inability of the peers to completely substitute the streaming servers, the thesis proposes a system for peer-assisted streaming. Some of the important questions addressed in the thesis are how the system parameters and the various distributions of the video contents on the peers would impact the overall system performance. In order to give answers to these questions, the thesis proposes a precise and flexible stochastic model that takes into consideration parameters like uplink and storage capacity of the peers, number of peers, size of the video content library, size of contents and content distribution scheme to estimate the benefits of the peer-assisted streaming. The work also proposes an extended version of the mathematical model by including the failure probability of the peers and their recovery time in the set of parameters. These models are used as tools for conducting thorough analyses of the peer-assisted system for VoD streaming for the wide range of defined parameters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El vertiginoso avance de la informática y las telecomunicaciones en las últimas décadas ha incidido invariablemente en la producción y la prestación de servicios, en la educación, en la industria, en la medicina, en las comunicaciones e inclusive en las relaciones interpersonales. No obstante estos avances, y a pesar de la creciente aportación del software al mundo actual, durante su desarrollo continuamente se incurre en el mismo tipo de problemas que provocan un retraso sistemático en los plazos de entrega, se exceda en presupuesto, se entregue con una alta tasa de errores y su utilidad sea inferior a la esperada. En gran medida, esta problemática es atribuible a defectos en los procesos utilizados para recoger, documentar, acordar y modificar los requisitos del sistema. Los requisitos son los cimientos sobre los cuáles se construye un producto software, y sin embargo, la incapacidad de gestionar sus cambios es una de las principales causas por las que un producto software se entrega fuera de tiempo, se exceda en coste y no cumpla con la calidad esperada por el cliente. El presente trabajo de investigación ha identificado la necesidad de contar con metodologías que ayuden a desplegar un proceso de Gestión de Requisitos en pequeños grupos y entornos de trabajo o en pequeñas y medianas empresas. Para efectos de esta tesis llamaremos Small-Settings a este tipo de organizaciones. El objetivo de este trabajo de tesis doctoral es desarrollar un metamodelo que permita, por un lado, la implementación y despliegue del proceso de Gestión de Requisitos de forma natural y a bajo coste y, por otro lado, el desarrollo de mecanismos para la mejora continua del mismo. Este metamodelo esta soportado por el desarrollo herramientas que permiten mantener una biblioteca de activos de proceso para la Gestión de Requisitos y a su vez contar con plantillas para implementar el proceso partiendo del uso de activos previamente definidos. El metamodelo contempla el desarrollo de prácticas y actividades para guiar, paso a paso, la implementación del proceso de Gestión de Requisitos para una Small-Setting utilizando un modelo de procesos como referencia y una biblioteca de activos de proceso como principal herramienta de apoyo. El mantener los activos de proceso bien organizados, indexados, y fácilmente asequibles, facilita la introducción de las mejores prácticas al interior de una organización. ABSTRACT The fast growth of computer science and telecommunication in recent decades has invariably affected the provision of products and services in education, industry, healthcare, communications and also interpersonal relationships. In spite of such progress and the active role of the software in the world, its development and production continually incurs in the same type of problems that cause systematic delivery delays, over budget, a high error rate and consequently its use is lower than expected. These problems are largely attributed to defects in the processes used to identify, document, organize, and track all system's requirements. It is generally accepted that requirements are the foundation upon which the software process is built, however, the inability to manage changes in requirements is one of the principal factors that contribute to delays on the software development process, which in turn, may cause customer dissatisfaction. The aim of the present research work has identified the need for appropriate methodologies to help on the requirement management process for those organizations that are categorised as small and medium size enterprises, small groups within large companies, or small projects. For the purposes of this work, these organizations are named Small-Settings. The main goal of this research work is to develop a metamodel to manage the requirement process using a Process Asset Library (PAL) and to provide predefined tools and actives to help on the implementation process. The metamodel includes the development of practices and activities to guide step by step the deployment of the requirement management process in Small-Settings. Keeping assets organized, indexed, and readily available are a main factor to the success of the organization process improvement effort and facilitate the introduction of best practices within the organization. The Process Asset Library (PAL) will become a repository of information used to keep and make available all process assets that are useful to those who are defining, implementing, and managing processes in the organization.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El modelo de dominación absoluta de las aglomeraciones urbanas sobre el campo ha entrado en crisis y también lo está haciendo el sistema agroalimentario globalizado, por su insostenibilidad, su injusticia y su incapacidad para asegurar la calidad de los alimentos producidos. Para llegar a definir un nuevo modelo más equilibrad, es necesario cambiar la percepción que se tiene de lo rural, superando la actual visión consumista y utilitarista, reconociendo el papel mucho más amplio que desempeña para la calidad de vida en la ciudad. En esta recomposición del modelo territorial cobran singular importancia los espacios periurbanos, por su condición de interfaz de encuentro entre lo rural y lo urbano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hasta hace relativamente poco tiempo, el bienestar de las vacas lecheras en las granjas de EE.UU. y U.E. se asumía como correcto. Sin embargo en los últimos años, con el considerable incremento de la productividad de las vacas y los cambios en el manejo, tamaño y estructura de las granjas, los estudiosos del bienestar han comenzado a expresar su seria preocupación al respecto en las vacas de alta producción y en sus terneros. Hoy día, los principales problemas de bienestar en el vacuno lechero se derivan de la mayor incidencia de mamitis y de problemas de pezuñas y de patas, de problemas reproductivos, de su incapacidad para mostrar comportamientos normales, de respuestas fisiológicas de emergencia que consumen recursos energéticos y de lesiones. Estos problemas de bienestar incluyen los originados por el entorno productivo (por ejemplo suelos deslizantes que provocan lesiones en patas, o suelos abrasivos que dañan las pezuñas) y por el manejo (falta de especialización de la mano de obra) y elevada rotación de ésta, que contribuye a una menor atención a la detección de enfermedades o síntomas de estrés), así como esquemas de selección dirigidos únicamente a mejorar los caracteres productivos. Todo ello ha provocado a que las modernas granjas lecheras tengan serios problemas de bienestar en sus animales.