889 resultados para defecto de la vista


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The commonly accepted approach to specifying libraries of concurrent algorithms is a library abstraction. Its idea is to relate a library to another one that abstracts away from details of its implementation and is simpler to reason about. A library abstraction relation has to validate the Abstraction Theorem: while proving a property of the client of the concurrent library, the library can be soundly replaced with its abstract implementation. Typically a library abstraction relation, such as linearizability, assumes a complete information hiding between a library and its client, which disallows them to communicate by means of shared memory. However, such way of communication may be used in a program, and correctness of interactions on a shared memory depends on the implicit contract between the library and the client. In this work we approach library abstraction without any assumptions about information hiding. To be able to formulate the contract between components of the program, we augment machine states of the program with two abstract states, views, of the client and the library. It enables formalising the contract with the internal safety, which requires components to preserve each other's views whenever their command is executed. We define the library a a correspondence between possible uses of a concrete and an abstract library. For our library abstraction relation and traces of a program, components of which follow their contract, we prove an Abstraction Theorem. RESUMEN. La técnica más aceptada actualmente para la especificación de librerías de algoritmos concurrentes es la abstracción de librerías (library abstraction). La idea subyacente es relacionar la librería original con otra que abstrae los detalles de implementación y conóon que describa dicha abstracción de librerías debe validar el Teorema de Abstracción: durante la prueba de la validez de una propiedad del cliente de la librería concurrente, el reemplazo de esta última por su implementación abstracta es lógicamente correcto. Usualmente, una relación de abstracción de librerías como la linearizabilidad (linearizability), tiene como premisa el ocultamiento de información entre el cliente y la librería (information hiding), es decir, que no se les permite comunicarse mediante la memoria compartida. Sin embargo, dicha comunicación ocurre en la práctica y la correctitud de estas interacciones en una memoria compartida depende de un contrato implícito entre la librería y el cliente. En este trabajo, se propone un nueva definición del concepto de abtracción de librerías que no presupone un ocultamiento de información entre la librería y el cliente. Con el fin de establecer un contrato entre diferentes componentes de un programa, extendemos la máquina de estados subyacente con dos estados abstractos que representan las vistas del cliente y la librería. Esto permite la formalización de la propiedad de seguridad interna (internal safety), que requiere que cada componente preserva la vista del otro durante la ejecuci on de un comando. Consecuentemente, se define la relación de abstracción de librerías mediante una correspondencia entre los usos posibles de una librería abstracta y una concreta. Finalmente, se prueba el Teorema de Abstracción para la relación de abstracción de librerías propuesta, para cualquier traza de un programa y cualquier componente que satisface los contratos apropiados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En la actualidad son muchos los edificios en los que se llevan a cabo intervenciones para la adaptación de la edificación existente a las nuevas demandas de calidad (habitabilidad, eficiencia energética, etc.). Entre ellas destacan las obras motivadas por las necesidades de accesibilidad en edificios de vivienda existentes, parque edificatorio mayor y con más dificultades de adaptación. Hay que señalar que en España, la tasa de personas con discapacidad que viven en sus casas se sitúa sobre el 8,5% en 2008,tasa que se verá incrementada por el progresivo aumento en la esperanza de vida y la disminución de los nacimientos. Por una parte, a consecuencia de la crisis financiera y económica internacional la legislación española ha desarrollado distintas herramientas para la reactivación del sector de la construcción a través del fomento de la rehabilitación de los edificios. Por otra parte, la intensa defensa de los derechos de las personas con discapacidad por parte de su colectivo (CERMI) ha conseguido establecer un nuevo objetivo desde la legislación estatal para enero de 2019: la adaptación de “todos los edificios existentes que sean susceptibles de ajustes razonables a las condiciones de accesibilidad”, incluso si no se tiene prevista la realización de obras en los mismos. El objetivo de este estudio es analizar “Qué se puede hacer” y “Qué es razonable hacer” conforme a la realidad construida y teniendo a la vista el próximo horizonte 2019.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Algunos proyectos, como el Dusty relief/B-mu (2002) de François Roche demuestran como edificios complejos, que toman distancia desde los modelos mecanicistas para referirse a nuevos paradigmas, se pueden interpretar y comprenderse mejor gracias a un análisis perceptivo que acerca el proyecto de arquitectura a cuestiones como la relación psicológica del hombre con la arquitectura, el miedo al espacio, y las patologías vinculadas a la percepción y a las neurosis modernas. En este caso, aparte de las repercusiones que la fachada de polvo podría tener en el ámbito de la ecología urbana, es interesante analizar algunos aspectos ligados a la dicotomía entre forma externa y volúmenes internos para la que François Roche cita como referencia el raumplan de Adolf Loos, pero que presenta motivos para una reflexión vinculada a los aspectos perceptivos. El artículo trata de analizar como François Roche proyecta sus edificios extremando la dicotomía entre interior/visual y exterior/táctil, desarrollando así una nueva relación con el lugar. Roche diseña la fachada exterior del B-mu autoimponiéndose una limitación del sentido de la vista, a favor de una dimensión háptica del proyecto y lo hace envolviendo los ámbitos arquitectónicos más familiares de una interfaz abstracta y táctil.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La calidad de las planchas de corcho, entendida como su aptitud para la fabricación de tapones de corcho natural, determina la clase comercial de las mismas y, por tanto, su valor económico. Esta clasificación, llevada a cabo tradicionalmente en la industria preparadora por el escogedor, depende en gran medida de las anomalías presentes en la plancha. Con el objetivo de conocer qué variables entran en juego en la clasificación y cuál es el peso de cada una de ellas, se han realizado diferentes estudios. García de Ceca (2001) propone modelos de clasificación de piezas de corcho en plancha de 20 cm x 20 cm, elaborados con muestras procedentes de las principales regiones productoras de corcho a nivel global: Portugal, España y Marruecos En el presente estudio se lleva cabo la validación de los modelos propuestos por el citado autor, utilizando ahora piezas procedentes de las principales regiones productoras a nivel nacional (Andalucía, Extremadura y Cataluña), obtenidas en muestreos completamente independientes de los utilizados en la elaboración de los modelos. A la vista de los resultados obtenidos, se proponen medidas para la mejora y actualización de los modelos, atendiendo a criterios tecnológicos, normativos y científicos. Por último, se desarrolla un software para la clasificación de muestras de corcho por gestores y propietarios, al que se añade un breve manual metodológico. Los modelos de García de Ceca (2001) resultan aplicables para las procedencias españolas, obteniendo un 79,66% y un 75,39% de aciertos en la clasificación de piezas, para los modelos 2TC y 2TR respectivamente. Se han incluido modificaciones relativas a la presencia de mancha amarilla, los calibres demasiado delgados para la fabricación de tapones y la superficie ocupada por anomalías, consiguiendo elevar los resultados de acierto al 86,27% y 89,12%. Por último, se ha desarrollado una aplicación en Visual Basic® for Applications sobre Microsoft Excel® que permite la clasificación de corcho por personal no especializado, a partir de la metodología descrita en el manual.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La investigación realizada en este trabajo de tesis se ha centrado en el estudio de la generación, anclaje y desenganche de paredes de dominio magnético en nanohilos de permalloy con defectos controlados. Las últimas tecnologías de nanofabricación han abierto importantes líneas de investigación centradas en el estudio del movimiento de paredes de dominio magnético, gracias a su potencial aplicación en memorias magnéticas del futuro. En el 2004, Stuart Parkin de IBM introdujo un concepto innovador, el dispositivo “Racetrack”, basado en un nanohilo ferromagnético donde los dominios de imanación representan los "bits" de información. La frontera entre dominios, ie pared magnética, se moverían en una situación ideal por medio de transferencia de espín de una corriente polarizada. Se anclan en determinadas posiciones gracias a pequeños defectos o constricciones de tamaño nanométrico fabricados por litografía electrónica. El éxito de esta idea se basa en la generación, anclaje y desenganche de las paredes de dominio de forma controlada y repetitiva, tanto para la lectura como para la escritura de los bits de información. Slonczewski en 1994 muestra que la corriente polarizada de espín puede transferir momento magnético a la imanación local y así mover paredes por transferencia de espín y no por el campo creado por la corriente. Desde entonces muchos grupos de investigación de todo el mundo trabajan en optimizar las condiciones de transferencia de espín para mover paredes de dominio. La fracción de electrones polarizados que viaja en un hilo ferromagnético es considerablemente pequeña, así hoy por hoy la corriente necesaria para mover una pared magnética por transferencia de espín es superior a 1 107 A/cm2. Una densidad de corriente tan elevada no sólo tiene como consecuencia una importante degradación del dispositivo sino también se observan importantes efectos relacionados con el calentamiento por efecto Joule inducido por la corriente. Otro de los problemas científico - tecnológicos a resolver es la diversidad de paredes de dominio magnético ancladas en el defecto. Los diferentes tipos de pared anclados en el defecto, su quiralidad o el campo o corriente necesarios para desenganchar la pared pueden variar dependiendo si el defecto posee dimensiones ligeramente diferentes o si la pared se ancla con un método distinto. Además, existe una componente estocástica presente tanto en la nucleación como en el proceso de anclaje y desenganche que por un lado puede ser debido a la naturaleza de la pared que viaja por el hilo a una determinada temperatura distinta de cero, así como a defectos inevitables en el proceso de fabricación. Esto constituye un gran inconveniente dado que según el tipo de pared es necesario aplicar distintos valores de corriente y/o campo para desenganchar la pared del defecto. Como se menciona anteriormente, para realizar de forma eficaz la lectura y escritura de los bits de información, es necesaria la inyección, anclaje y desenganche forma controlada y repetitiva. Esto implica generar, anclar y desenganchar las paredes de dominio siempre en las mismas condiciones, ie siempre a la misma corriente o campo aplicado. Por ello, en el primer capítulo de resultados de esta tesis estudiamos el anclaje y desenganche de paredes de dominio en defectos de seis formas distintas, cada uno, de dos profundidades diferentes. Hemos realizado un análisis estadístico en diferentes hilos, donde hemos estudiado la probabilidad de anclaje cada tipo de defecto y la dispersión en el valor de campo magnético aplicado necesario para desenganchar la pared. Luego, continuamos con el estudio de la nucleación de las paredes de dominio magnético con pulsos de corriente a través una linea adyacente al nanohilo. Estudiamos defectos de tres formas distintas e identificamos, en función del valor de campo magnético aplicado, los distintos tipos de paredes de dominio anclados en cada uno de ellos. Además, con la ayuda de este método de inyección que es rápido y eficaz, hemos sido capaces de generar y anclar un único tipo de pared minimizando el comportamiento estocástico de la pared mencionado anteriormente. En estas condiciones óptimas, hemos estudiado el desenganche de las paredes de dominio por medio de corriente polarizada en espín, donde hemos conseguido desenganchar la pared de forma controlada y repetitiva siempre para los mismos valores de corriente y campo magnético aplicados. Además, aplicando pulsos de corriente en distintas direcciones, estudiamos en base a su diferencia, la contribución térmica debido al efecto Joule. Los resultados obtenidos representan un importante avance hacia la explotación práctica de este tipo de dispositivos. ABSTRACT The research activity of this thesis was focused on the nucleation, pinning and depinning of magnetic domain walls (DWs) in notched permalloy nanowires. The access to nanofabrication techniques has boosted the number of applications based on magnetic domain walls (DWs) like memory devices. In 2004, Stuart Parkin at IBM, conceived an innovative concept, the “racetrack memory” based on a ferromagnetic nanowire were the magnetic domains constitute the “bits” of information. The frontier between those magnetic domains, ie magnetic domain wall, will move ideally assisted by a spin polarized current. DWs will pin at certain positions due to artificially created pinning sites or “notches” fabricated with ebeam lithography. The success of this idea relies on the careful and predictable control on DW nucleation and a defined pinning-depinning process in order to read and write the bits of information. Sloncsewski in 1994 shows that a spin polarized current can transfer magnetic moment to the local magnetization to move the DWs instead of the magnetic field created by the current. Since then many research groups worldwide have been working on optimizing the conditions for the current induced DW motion due to the spin transfer effect. The fraction of spin polarized electrons traveling through a ferromagnetic nanowire is considerably small, so nowadays the current density required to move a DW by STT exceeds 1 107 A/cm2. A high current density not only can produce a significant degradation of the device but also important effects related to Joule heating were also observed . There are other scientific and technological issues to solve regarding the diversity of DWs states pinned at the notch. The types of DWs pinned, their chirality or their characteristic depinning current or field, may change if the notch has slightly different dimensions, the stripe has different thickness or even if the DW is pinned by a different procedure. Additionally, there is a stochastic component in both the injection of the DW and in its pinning-depinning process, which may be partly intrinsic to the nature of the travelling DW at a non-zero temperature and partly due to the unavoidable defects introduced during the nano-fabrication process. This constitutes an important inconvenient because depending on the DW type different values of current of magnetic field need to be applied in order to depin a DW from the notch. As mentioned earlier, in order to write and read the bits of information accurately, a controlled reproducible and predictable pinning- depinning process is required. This implies to nucleate, pin and depin always at the same applied magnetic field or current. Therefore, in the first chapter of this thesis we studied the pinning and depinning of DW in six different notch shapes and two depths. An statistical analysis was conducted in order to determine which notch type performed best in terms of pinning probability and the dispersion measured in the magnetic field necessary to depin the magnetic DWs. Then, we continued studying the nucleation of DWs with nanosecond current pulses by an adjacent conductive stripe. We studied the conditions for DW injection that allow a selective pinning of the different types of DWs in Permalloy nanostripes with 3 different notch shapes. Furthermore, with this injection method, which has proven to be fast and reliable, we manage to nucleate only one type of DW avoiding its stochastic behavior mentioned earlier. Having achieved this optimized conditions we studied current induced depinning where we also achieved a controlled and reproducible depinning process at always the same applied current and magnetic field. Additionally, changing the pulse polarity we studied the joule heating contribution in a current induced depinning process. The results obtained represent an important step towards the practical exploitation of these devices.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La medicina y la ingeniería del siglo XXI han dado como fruto numerosos avances para la sociedad aunque en la mayoría de los casos los tratamientos suelen ser costosos e invasivos. La educación que recibe la sociedad sobre la salud es escasa, ya que sólo vamos al médico cuando realmente estamos enfermos. Este trabajo presenta nuestra apuesta por las terapias complementarias, para el desarrollo de una metodología terapéutica no invasiva y con un costo muy bajo. La finalidad de esta Tesis, que se enmarca en un equipo multidisciplinar, fruto de la estrecha colaboración en el que participan psicopedagogos, ingenieros y médicos, es perfilar una metodología que luego pueda ser aplicable a patologías neurológicas. Aquí, dejamos sentadas las bases. Faltarán nuevos investigadores que continúen este camino para tener una base de datos lo suficientemente extensa de registros de sujetos que hayan sido sometidos a terapia binaural, para poder sacar unas conclusiones sólidas. La aportación de esta Tesis deja cubierta la aplicación, selección, procesado de señal y desarrollo de algoritmos, test cognitivos indicados para el caso específico que nos ocupa, cálculo de incertidumbre del sistema utilizado para la aplicación del estímulo y desarrollo de un test psicoacústico específico. EL empleo del sonido en medicina como es la musicoterapia o sonoterapia ha experimentado una gran difusión en los últimos años, más de 100.000 nuevas citas bibliográficas han aparecido con respecto al año anterior. Sin embargo, son escasísimas las que hacen referencia a las características físico acústicas del sonido empleado, tan sólo hemos encontrado una par de ellas que correlacionan las características físicas del sonido con el tipo de respuesta terapéutica. No encontramos citas bibliográficas específicas que planteen un modelo experimental científico capaz de reproducir las mismas respuestas ante los mismos parámetros y estímulos. En esta Tesis proponemos el uso de estimulación sonora binaural, que consiste en la utilización de dos tonos puros idénticos pero ligeramente diferentes en frecuencia que se presentan de manera separada cada uno en un oído, como consecuencia, la persona que recibe la estimulación percibe un tercer tono, llamado tono binaural, formado por la diferencia de frecuencia de ambos variando su amplitud. Existen estudios que sugieren que dichas frecuencias binaurales pueden modificar los patrones eléctricos de la actividad cerebral y los niveles de arousal, conociéndose en la literatura bajo el nombre de “entrainment”. Tras la revisión bibliográfica del estado del arte, podemos concluir que es necesario el desarrollo de estudios doble ciego bien diseñados, con el objetivo de establecer una base sólida sobre los efectos de este tipo de estimulación, ya que la mayoría de los beneficios documentados se refieren a muestras muy pequeñas y con poco rigor científico, siendo los resultados positivos obtenidos debidos al efecto placebo. La tecnología binaural es barata siendo cualquier avance en esta dirección de interés público. El objetivo concreto de la investigación es estudiar el potencial de las ondas binaurales en un área en particular: tareas que requieren atención y concentración. Se busca obtener cualquier cambio en las ondas cerebrales que se puedan correlar con la mejoras. A la vista de los resultados de estas investigaciones se intentará aplicar esta metodología en neuropatologías que presenten alguna deficiencia en el área de atención como es el Trastorno de espectro Autista. En esta Tesis presentamos los resultados de dos estudios independientes, el primero para sentar las bases del método (tiempos, diseño de estimulaciones, procesado) en una muestra de 78 adultos sanos, el segundo a partir de los resultados obtenidos en el primero, afinando la metodología y para un grupo de 20 niños entre 8 y 12 años, los resultados del segundo estudio sirven para justificar su aplicación en niños con TEA que presenten déficit de atención. ABSTRACT Medicine and engineering in the 21st century have resulted in advances for society but in most cases the treatments are often costly and invasive. The health education society receive is scarce, since only go to the doctor when we are really sick. With this work I present my commitment to complementary therapies, my little grain of sand in the development of a noninvasive therapeutic approach and very low cost, well and can be used in a preventive manner resulting in a society with less sick. The purpose of this thesis is to outline a methodology that can then be applied to neurological diseases, here we lay the groundwork. New researchers are needed to continue this path for a sufficiently extensive records database of subjects who have undergone binaural therapy, and so to draw firm conclusions. The contribution of this thesis includes: the application, selection, signal processing and algorithm development, indicated cognitive tests for the specific case at hand, calculation of system uncertainty of the system and development of a specific psychoacoustic test. The use of sound in medicine, such as music therapy or sound therapy has experienced a great diffusion in recent years, more than 100,000 new citations have appeared over the previous year but very few are those referring to acoustic physical characteristics of sound employee, we have only found a couple of them that physical sound characteristics are correlated with the therapeutic response. We found no specific citations posing a scientific experimental model capable of reproducing the same answers to the same parameters and stimuli. In this thesis we propose the use of binaural sound stimulation which involves the use of two identical but slightly different in frequency pure tones presented separately each in one ear, as a result the subject perceives a third tone, called binaural tone, formed by the difference in frequency with amplitude variations Studies suggest that these binaural frequencies can modify the electrical patterns of brain activity and arousal levels, being known in the literature under the name of “entrainment”. After the literature review of the state of the art, we conclude, it is necessary to develop well-designed double-blind studies, in order to establish a solid foundation on the effects of such stimulation, since most of the documented benefits relate to very small samples and unscientific may be obtained positive results due to the placebo effect. The binaural technology is cheap being any progress in this direction in the public interest. The specific objective of the research is to study the potential of binaural waves in a particular area: tasks requiring attention and concentration also we want to get any change in brain waves that can correlate with improvements. In view of the results of this research we seek to apply this methodology in neuropathology presenting any deficiency in the area of attention such as Autism Spectrum Disorder. In this thesis we present the results of two independent studies, the first to lay the foundation of the method (times, stimulation design, processing) in a sample of 78 healthy adults, the second from the results obtained in the first, refine the methodology for a group of 20 children between 8 and 12 years, the results of the second study used to justify its use in children with ASD that present attention deficit.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este proyecto fín de carrera describe el desarrollo de un sistema de estimación de mapas de profundidad densos a partir de secuencias reales dedeo 3D. Está motivado por la necesidad de utilizar la información de profundidad de un vídeo estéreo para calcular las oclusiones en el módulo de inserción de objetos sintéticos interactivos desarrollado en el proyecto ImmersiveTV. En el receptor 3DTV, el sistema debe procesar en tiempo real secuencias estéreo de escenas reales en alta resolución con formato Side-by-Side. Se analizan las características del contenido para conocer los problemas a enfrentar. Obtener un mapa de profundidad denso mediante correspondencia estéreo (stereo matching) permite calcular las oclusiones del objeto sintético con la escena. No es necesario que el valor de disparidad asignado a cada píxel sea preciso, basta con distinguir los distintos planos de profundidad ya que se trabaja con distancias relativas. La correspondencia estéreo exige que las dos vistas de entrada estén alineadas. Primero se comprueba si se deben rectificar y se realiza un repaso teórico de calibración y rectificación, resumiendo algunos métodos a considerar en la resolución del problema. Para estimar la profundidad, se revisan técnicas de correspondencia estéreo densa habituales, seleccionando un conjunto de implementaciones con el fin de valorar cuáles son adecuadas para resolver el problema, incluyendo técnicas locales, globales y semiglobales, algunas sobre CPU y otras para GPU; modificando algunas para soportar valores negativos de disparidad. No disponer de ground truth de los mapas de disparidad del contenido real supone un reto que obliga a buscar métodos indirectos de comparación de resultados. Para una evaluación objetiva, se han revisado trabajos relacionados con la comparación de técnicas de correspondencia y entornos de evaluación existentes. Se considera el mapa de disparidad como error de predicción entre vistas desplazadas. A partir de la vista derecha y la disparidad de cada píxel, puede reconstruirse la vista izquierda y, comparando la imagen reconstruida con la original, se calculan estadísticas de error y las tasas de píxeles con disparidad inválida y errónea. Además, hay que tener en cuenta la eficiencia de los algoritmos midiendo la tasa de cuadros por segundo que pueden procesar. Observando los resultados, atendiendo a los criterios de maximización de PSNR y minimización de la tasa de píxeles incorrectos, se puede elegir el algoritmo con mejor comportamiento. Como resultado, se ha implementado una herramienta que integra el sistema de estimación de mapas de disparidad y la utilidad de evaluación de resultados. Trabaja sobre una imagen, una secuencia o un vídeo estereoscópico. Para realizar la correspondencia, permite escoger entre un conjunto de algoritmos que han sido adaptados o modificados para soportar valores negativos de disparidad. Para la evaluación, se ha implementado la reconstrucción de la vista de referencia y la comparación con la original mediante el cálculo de la RMS y PSNR, como medidas de error, además de las tasas de píxeles inválidos e incorrectos y de la eficiencia en cuadros por segundo. Finalmente, se puede guardar las imágenes (o vídeos) generados como resultado, junto con un archivo de texto en formato csv con las estadísticas para su posterior comparación.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La oportunidad de analizar la ciudad como un ecosistema urbano es muy necesaria, no tanto por su definición y alcances sino por la solución integral que es preciso plantear a la vista de la complejidad de los problemas actuales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El rebase se define como el transporte de una cantidad importante de agua sobre la coronación de una estructura. Por tanto, es el fenómeno que, en general, determina la cota de coronación del dique dependiendo de la cantidad aceptable del mismo, a la vista de condicionantes funcionales y estructurales del dique. En general, la cantidad de rebase que puede tolerar un dique de abrigo desde el punto de vista de su integridad estructural es muy superior a la cantidad permisible desde el punto de vista de su funcionalidad. Por otro lado, el diseño de un dique con una probabilidad de rebase demasiado baja o nula conduciría a diseños incompatibles con consideraciones de otro tipo, como son las estéticas o las económicas. Existen distintas formas de estudiar el rebase producido por el oleaje sobre los espaldones de las obras marítimas. Las más habituales son los ensayos en modelo físico y las formulaciones empíricas o semi-empíricas. Las menos habituales son la instrumentación en prototipo, las redes neuronales y los modelos numéricos. Los ensayos en modelo físico son la herramienta más precisa y fiable para el estudio específico de cada caso, debido a la complejidad del proceso de rebase, con multitud de fenómenos físicos y parámetros involucrados. Los modelos físicos permiten conocer el comportamiento hidráulico y estructural del dique, identificando posibles fallos en el proyecto antes de su ejecución, evaluando diversas alternativas y todo esto con el consiguiente ahorro en costes de construcción mediante la aportación de mejoras al diseño inicial de la estructura. Sin embargo, presentan algunos inconvenientes derivados de los márgenes de error asociados a los ”efectos de escala y de modelo”. Las formulaciones empíricas o semi-empíricas presentan el inconveniente de que su uso está limitado por la aplicabilidad de las fórmulas, ya que éstas sólo son válidas para una casuística de condiciones ambientales y tipologías estructurales limitadas al rango de lo reproducido en los ensayos. El objetivo de la presente Tesis Doctoral es el contrate de las formulaciones desarrolladas por diferentes autores en materia de rebase en distintas tipologías de diques de abrigo. Para ello, se ha realizado en primer lugar la recopilación y el análisis de las formulaciones existentes para estimar la tasa de rebase sobre diques en talud y verticales. Posteriormente, se llevó a cabo el contraste de dichas formulaciones con los resultados obtenidos en una serie de ensayos realizados en el Centro de Estudios de Puertos y Costas. Para finalizar, se aplicó a los ensayos de diques en talud seleccionados la herramienta neuronal NN-OVERTOPPING2, desarrollada en el proyecto europeo de rebases CLASH (“Crest Level Assessment of Coastal Structures by Full Scale Monitoring, Neural Network Prediction and Hazard Analysis on Permissible Wave Overtopping”), contrastando de este modo la tasa de rebase obtenida en los ensayos con este otro método basado en la teoría de las redes neuronales. Posteriormente, se analizó la influencia del viento en el rebase. Para ello se han realizado una serie de ensayos en modelo físico a escala reducida, generando oleaje con y sin viento, sobre la sección vertical del Dique de Levante delaga. Finalmente, se presenta el análisis crítico del contraste de cada una de las formulaciones aplicadas a los ensayos seleccionados, que conduce a las conclusiones obtenidas en la presente Tesis Doctoral. Overtopping is defined as the volume of water surpassing the crest of a breakwater and reaching the sheltered area. This phenomenon determines the breakwater’s crest level, depending on the volume of water admissible at the rear because of the sheltered area’s functional and structural conditioning factors. The ways to assess overtopping processes range from those deemed to be most traditional, such as semi-empirical or empirical type equations and physical, reduced scale model tests, to others less usual such as the instrumentation of actual breakwaters (prototypes), artificial neural networks and numerical models. Determining overtopping in reduced scale physical model tests is simple but the values obtained are affected to a greater or lesser degree by the effects of a scale model-prototype such that it can only be considered as an approximation to what actually happens. Nevertheless, physical models are considered to be highly useful for estimating damage that may occur in the area sheltered by the breakwater. Therefore, although physical models present certain problems fundamentally deriving from scale effects, they are still the most accurate, reliable tool for the specific study of each case, especially when large sized models are adopted and wind is generated Empirical expressions obtained from laboratory tests have been developed for calculating the overtopping rate and, therefore, the formulas obtained obviously depend not only on environmental conditions – wave height, wave period and water level – but also on the model’s characteristics and are only applicable in a range of validity of the tests performed in each case. The purpose of this Thesis is to make a comparative analysis of methods for calculating overtopping rates developed by different authors for harbour breakwater overtopping. First, existing equations were compiled and analysed in order to estimate the overtopping rate on sloping and vertical breakwaters. These equations were then compared with the results obtained in a number of tests performed in the Centre for Port and Coastal Studies of the CEDEX. In addition, a neural network model developed in the European CLASH Project (“Crest Level Assessment of Coastal Structures by Full Scale Monitoring, Neural Network Prediction and Hazard Analysis on Permissible Wave Overtopping“) was also tested. Finally, the wind effects on overtopping are evaluated using tests performed with and without wind in the physical model of the Levante Breakwater (Málaga).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los nombres que se usan actualmente para las grúas los ponen las empresas fabricantes y muy frecuentemente no tienen relación con su tipología ni con su capacidad. Por otra parte, es de uso común en la construcción, llamar a las grúas usando su tonelaje nominal que coincide normalmente con su capacidad máxima que se obtiene a radio mínimo. Existe una controversia por el uso de este valor ya que no suele definir bien la capacidad de las maquinas. En cuanto el radio de trabajo se aleja de sus valores mínimos, las grúas están limitadas por el momento de vuelco que no tiene porque comportarse de manera proporcional o ni siquiera relacionada con el valor de la capacidad nominal. Esto hace que comparar grúas mediante sus capacidades nominales (que son sus denominaciones) pueda inducir a errores importantes. Como alternativa, se pretende estudiar el uso de momento máximo de vuelco MLM por sus siglas en ingles (Maximum Load Moment) para intentar definir la capacidad real de las grúas. Se procede a realizar un análisis técnico y financiero de grúas con respecto a ambos valores mencionados con objeto de poder determinar cual de los dos parámetros es más fiable a la hora de definir la capacidad real de estas maquinas. Para ello, se seleccionan dentro de las tres tipologías más importantes por su presencia e importancia en la construcción (grúas de celosía sobre cadenas, grúas telescópicas sobre camión y grúas torre) nueve grúas de distintos tamaños y capacidades con objeto de analizar una serie de parámetros técnicos y sus costes. Se realizan de este modo diversas comparativas analizando los resultados en función de las tipologías y de los tamaños de las distintas maquinas. Para cada máquina se obtienen las capacidades y los momentos de vuelco correspondientes a distintos radios de trabajo. Asimismo, se obtiene el MLM y el coste hora de cada grúa, este último como suma de la amortización de la máquina, intereses del capital invertido, consumos, mantenimiento y coste del operador. Los resultados muestran las claras deficiencias del tonelaje nominal como valor de referencia para definir la capacidad de las grúas ya que grúas con el mismo tonelaje nominal pueden dar valores de capacidad de tres a uno (e incluso mayores) cuando los radios de trabajo son importantes. A raiz de este análisis se propone el uso del MLM en lugar del tonelaje nominal para la denominación de las grúas ya que es un parámetro mucho más fiable. Siendo conscientes de la dificultad que supone un cambio de esta entidad al tratarse de un uso común a nivel mundial, se indican posibles actuaciones concretas que puedan ir avanzando en esa dirección como seria por ejemplo la nomenclatura oficial de los fabricantes usando el MLM dentro del nombre de la grúa que también podría incluir la tipología o al menos alguna actuación legislativa sencilla como obligar al fabricante a indicar este valor en las tablas y características de cada máquina. El ratio analizado Coste horario de la grúa / MLM resulta ser de gran interés y permite llegar a la conclusión que en todas las tipologías de grúas, la eficiencia del coste por hora y por la capacidad (dada por el MLM) aumenta al aumentar la capacidad de la grúa. Cuando los tamaños de cada tipología se reducen, esta eficiencia disminuye y en algunos casos incluso drasticamente. La tendencia del mundo de la construcción de prefabricación y modularización que conlleva pesos y dimensiones de cargas cada vez más grandes, demandan cada vez grúas de mayor capacidad y se podría pensar en un primer momento que ante un crecimiento de capacidades tan significativo, el coste de las grúas se podría disparar y por ello disminuir la eficiencia de estas máquinas. A la vista de los resultados obtenidos con este análisis, no solo no ocurre este problema sino que se observa que dicho aumento de tamaños y capacidades de grúas redunda en un aumento de su eficiencia en cualquiera de las tipologías de estas maquinas que han sido estudiadas. The crane names that are actually used are given by crane manufacturers and, very frequently, they do not have any relationship with the crane type nor with its capacity. On the other hand, it is common in construction to use the nominal capacity (which corresponds in general to the capacity at minimum radius) as crane name. The use of this figure is controversial since it does not really reflect the real crane capacity. When the working radius increases a certain amount from its minimum values, the crane capacity starts to be limited by the crane tipping load and the moment is not really related to the value of the nominal capacity. Therefore, comparing cranes by their nominal capacity (their names) can lead to important mistakes. As an alternative, the use of the maximum load moment (MLM) can be studied for a better definition of real crane capacity. A technical and financial analysis of cranes is conducted using both parameters to determine which one is more reliable in order to define crane’s real capacity. For this purpose, nine cranes with different sizes and capacities will be selected within the most relevant crane types (crawler lattice boom cranes, telescopic truck mounted cranes and tower cranes) in order to analyze several parameters. The technical and economic results will be compared according to the crane types and sizes of the machines. For each machine, capacities and load moments are obtained for several working radius as well as MLM and hourly costs of cranes. Hourly cost is calculated adding up depreciation, interests of invested capital, consumables, maintenance and operator’s cost. The results show clear limitations for the use of nominal capacity as a reference value for crane definition since cranes with the same nominal capacity can have capacity differences of 3 to 1 (or even bigger) when working on important radius. From this analysis, the use of MLM as crane name instead of nominal capacity is proposed since it is a much more reliable figure. Being aware of the difficulty of such change since nominal capacity is commonly used worldwide; specific actions are suggested to progress in that direction. One good example would be that manufacturers would include MLM in their official crane names which could also include the type as well. Even legal action can be taken by simply requiring to state this figure in the crane charts and characteristics of every machine. The analyzed ratio: hourly cost / MLM is really interesting since it leads to the conclusion that for all crane types, the efficiency of the hourly cost divided by capacity (given by MLM) increases when the crane capacity is higher. When crane sizes are smaller, this efficiency is lower and can fall dramatically in certain cases. The developments in the construction world regarding prefabrication and modularization mean bigger weights and dimensions, which create a demand for bigger crane capacities. On a first approach, it could be thought that crane costs could rise significantly because of this capacity hugh increase reducing in this way crane efficiency. From the results obtained here, it is clear that it is definitely not the case but the capacity increase of cranes will end up in higher efficiency levels for all crane types that have been studied.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Lightness fue un término muy popular en el panorama arquitectónico a mediados de los años 90. Contribuyó decisivamente a ello la exposición que, en 1995, el MoMA de Nueva York dedicó a una serie de arquitecturas agrupadas bajo el título Light Construction. Aunque fue el evento más conocido por la institución que lo albergaba, no fue el único que se ocupó entonces de ese aspecto de la arquitectura. En paralelo, durante el otoño de 1995, la Universidad de Columbia dedicó un seminario a la reflexión sobre el vidrio en la arquitectura, desde la modernidad hasta nuestros días. El seminario se denominó The Culture of Glass y la profesora fue Joan Ockman. Un año antes, la serie de eventos promovidos por ANY fijaba su atención en el tema de la levedad, y le dedicaba en exclusiva el número 5 de su revista ANY Magazine bajo el título Lightness. Estos tres acercamientos -aunque complementarios- parecían solamente rodear el centro de una propuesta arquitectónica que se intuía vinculada a la levedad. Una vista atrás permite descubrir dos elementos más que amplían el marco de esta búsqueda aportando las miradas de uno de los maestros españoles sobre el estado actual de la arquitectura y de un filósofo que se embarca nada menos que en arriesgar a crear un espacio postmoderno. La primera de estas miradas atañe al ámbito universitario. Se trata de la conferencia del profesor Sáenz de Oíza para inaugurar el curso académico 1991-92 en la E.T.S.A.M. La segunda, más lejana en el tiempo, pero fundamental para comprender la idea que se propone sobre la levedad, es la manifestación Les Immatériaux, celebrada en 1985 en el Centre Georges Pompidou de París y comisariada por J.F.Lyotard. Estos cinco eventos delimitan un marco de referencia temporal y conceptual en el que es posible caracterizar y diferenciar un concepto de levedad propio de la arquitectura contemporánea. La búsqueda de este concepto, de lo que lo hace propio de esta época, ayudará a diferenciarlo de las aproximaciones a la levedad en arquitecturas pasadas, fundamentalmente de la modernidad clásica y la postmodernidad. También permitirá aflorar el pensamiento sobre la arquitectura en relación con la obra de arte, no como objeto estético, sino como objeto que pone en cuestión nuestra mirada y nuestro conocimiento del mundo. Por tanto, alejado de estilos o meras soluciones técnicas. El campo de la levedad ya no se reduce a la oposición entre lo ligero y lo pesado, como podría corresponder a una interpretación moderna, sino que adquiere otros matices relacionados con la vista, el equilibrio o el movimiento de un cuerpo que se convierte en intermediario de la experiencia. La búsqueda de esta forma de levedad en arquitecturas construidas nos ayudará a entender los aspectos que la caracterizan y que siempre se enlazan bajo la forma de un trabajo sutil sobre el soporte de la arquitectura, cuestionando lo que entendíamos por estable. ABSTRACT Lightness was a popular term in the architectural scene in the mid nineties. The exhibition that MoMa in New York devoted to a number of architectures gathered under the title Light Construction, in 1995, was a decisive contribution to it. Although it was the best known event thanks to the institution that hosted it, it was not the only one that dealt with that aspect of architecture. In parallel, during the autumn of 1995, Columbia University dedicated a seminar to the reflection about glass in architecture, from modernity up to now. The seminar was called The Culture of Glass and the professor was Joan Ockman. A year earlier, the series of events promoted by ANY focused on the subject of lightness, and the number 5 of the magazine ANY Magazine was exclusively dedicated to it under the title Lightness. These three approaches –although complementary- only seemed to surround the core of an architectural proposal that appeared to be linked to lightness. A look back allows for discovering two more elements that broaden the framework of this search contributing the views of one of the Spanish masters on the current architecture status and a philosopher who gets involved in no less than to create a postmodern space. The first of these views concerns university scope. It is the lecture by Professor Sáenz de Oíza to inaugurate the academic year 1991-92 at the E.T.S.A.M. The second, far off in time, but critical to understand the proposal initially guessed, is the manifestation Les Immatériaux, held in 1985 at the Centre Georges Pompidou in Paris and curated by J.F.Lyotard. These five events define a temporal and conceptual reference framework in which it is possible to characterize and differentiate a lightness concept belonging to contemporary architecture. The search of this concept, of what may have related to present time, helps to differentiate it from the approaches to the lightness in past architectures, mainly of classical modernism and postmodernism. It will also allow for emerging the thinking about architecture in relation to the work of art, not as an aesthetic object, but as an object that question our view and our knowledge of the world. Therefore, far from styles or mere technical solutions. The field of lightness is no longer limited to the opposition between light and heavy, as may correspond to a modern interpretation, but acquires other nuances related to sight, balance or movement of a body that becomes an intermediary of experience. The search for this kind of lightness in built architecture will help us to understand, by the way shown, the aspects that define it and that are always linked: the subtle work on the architectural support that leads us to question ourselves about what we understand as stable.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El proyecto moderno constituye el punto de referencia más importante de la arquitectura de la primera mitad del siglo XX. Su contundente propuesta expresiva, afianzada conceptualmente en el fenómeno de la industrialización, se tradujo en un poderoso programa de trabajo, fuertemente ideologizado, que abarcaba todas las dimensiones del diseño. Si, desde el punto de vista expresivo, en las dos primeras décadas del siglo XX las vanguardias artísticas generaron un panorama estimulante, amplio y diverso, hacia 1920, la historiografía general identifica la confluencia de todas las vertientes hacia una de ellas, que es señalada como aquella que mejor resume y trasmite conceptual y expresivamente todo el proceso de cambios. La simplicidad y arbitrariedad del mensaje, el rechazo explícito de lo que había sucedido anteriormente y de cualquier opción alternativa hacen de este cuerpo de ideas y formas una suerte de dogma, que merece la denominación de modernidad “ortodoxa”. A partir de los acuerdos formulados en los primeros Congresos Internacionales de Arquitectura Moderna quedó prácticamente establecido que las actuaciones debían seguir las normas de ese dogma como si se trata de un ritual que pautaba el quehacer de los técnicos. La lógica restrictiva del discurso y el vocabulario acotado que lo representaba resultaron instrumentos muy convincentes y fáciles de asimilar por parte de profesionales e intelectuales, pero difíciles de trasmitir al público en general, de tal manera que no fue sencillo poner en práctica el credo moderno en su versión “pura”. Fue entonces inevitable que aparecieran versiones alternativas, en las cuales algunos aspectos de esa modernidad ascética conviven con otros que habían sido expresamente rechazados, conformando procesos de combinación e integración de recursos expresivos de diversas fuentes dando lugar a procesos de contaminación que dan lugar a esas modernidades “híbridas” que constituyen el fundamento del presente trabajo de tesis y que fueron expresamente ignoradas e incluso rechazadas por la historiografía de la primera mitad del siglo XX. Por un lado, se va a demostrar que las formas modernas en sus formalizaciones híbridas e impuras tuvieron una amplia penetración en los diferentes estratos sociales uruguayos. De la mano de una clientela, que se siente imbuida del espíritu moderno y que está integrada tanto por agentes privados como por instituciones públicas, las formas modernas híbridas se difunden masivamente de la mano de arquitectos, constructores e idóneos y esa difusión no se restringió al enclave montevideano como podría deducirse de la historiografía moderna uruguaya, sino que su penetración alcanza prácticamente por todo el país. El trabajo supone el desarrollo de una labor arqueológica, con la diferencia que el material está absolutamente a la vista, pero no se lo había querido ver. Se trata de una labor de reivindicación y de reafirmación de esas arquitecturas que, a pesar del desdén profesional, forman parte del paisaje cotidiano y definen el carácter de las ciudades. Una intensa labor fotográfica, así como de investigación de archivos ha permitido desentrañar la cantidad y el buen nivel de esas arquitecturas uruguayas, al tiempo que también se relevan las impurezas de algunos de los ejemplos más destacados de la historia oficial de la modernidad uruguaya. El análisis monográfico de un edificio montevideano como el Palacio Díaz, diseñado por un estudio de segunda categoría que ha ocupado un lugar lateral en las historias oficiales y de un edificio absolutamente desconocido como el Club Uruguay de Rivera no hacen más que reafirmar la puesta en valor de esas arquitecturas anónimas que, para la mayoría de los ciudadanos, conforman la verdadera modernidad.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las casas del siglo XX construidas al borde del mar –escenario único y origen de su expresión- siguen la topografía del suelo que habitan en su descenso al agua, y organizan espacios que obtienen miradas al horizonte marino. El horizonte nos confronta a lo desconocido. La vista del mar incita al deseo de recorrerlo, al deseo de viajar. Con origen en el otium romano, la presencia del agua define un modo de vida apacible –epicúreo- que los viajeros de la arquitectura -que nos acompañan en la tesis- traducen en sus refugios más íntimos. Experimentan con los cambios en los conceptos y en las técnicas, que se trasladan fácilmente a la arquitectura de la casa al borde del agua desde los inicios del Movimiento Moderno. Sus espacios del habitar frente al mar nos permiten descubrir estrategias comunes en sus respuestas más modernas. El arquitecto ante el proyecto frente al mar llega a la ubicación elegida, mira hacia el horizonte, y desplazándose ladera arriba se coloca en un punto estratégico que elige; después, delante de su tablero, recorre el camino inverso, coloca el lugar y sobre él dibuja los elementos que configurarán los espacios de la casa buscando esa mirada al mar. Las situaciones y ubicaciones posibles son infinitas; se definen algunas consonancias espaciales comunes en los suelos que se ocupan debidas a la presencia del mar que asociamos entre sí. De la comparación entre todas las casas -emblemas del XX-, surgen múltiples variantes de la mirada y de espacios al abierto, y modos de fabricar entornos con criterios comunes para dominar la visión del mar. Interiores que se abren al panorama, espacios cuyas ventanas buscan su mirada en la extensión del horizonte, rescisiones y aperturas. Reconocemos condicionantes en el territorio a los que las villas responden, categorías arquitectónicas que dan respuesta frente al mar en la búsqueda del moderno, la topografía, la mirada y el espacio al abierto. Las casas comparten la idea del dominio del paisaje desde el punto más alto, y en algunos suelos se invierte la tipología por la topografía, confirmando así un criterio común basado en la lectura del suelo como consecuencia de la búsqueda del espacio de la mirada. Los espacios al abierto se significan en todas ellas, son espacios al -aire libre- abiertos, unos envueltos, otros porticados, puertas del horizonte que se abren al exterior, en el techo de la casa, otros cubiertos y abiertos, espacios entre interior y exterior, en plataformas con bancales o patios envolventes, recintos o habitaciones abiertas. Descubrimos un logro del XX en los espacios positivos o negativos que traducen o juegan con el entorno, que ocupan o sustraen de los contornos construidos y que obtienen espacios intermedios en la búsqueda de la relación con el mar. Las herramientas que se utilizan son los dibujos de los autores, de las casas visitadas, el elenco de viajeros y sus viajes, el conocimiento desde el estudio de los proyectos. A través de la comparación por aproximaciones parciales, los dibujos nos definen la mirada al mar, el modo de ocupación y la forma de relación con el paisaje. La arquitectura del habitar frente al mar en el XX, hecha para y por arquitectos, topografía el suelo y construye la mirada, fabricando espacios al abierto en la relación entre la casa y el entorno marítimo. ABSTRACT Houses of the 20th century built by the sea – a unique setting which gives rise to their expression – follow the topography of the land they occupy in its descent towards the sea, and they organize spaces which give views of the maritime horizon. The horizon brings us face to face with the unknown. The sea view provokes a desire to cross it, to travel. The presence of the sea defines a peaceful, epicurean way of life, with origins in the Roman otium, which architectural travellers – who accompany us through the thesis – translate into their most intimate retreats. They experiment with changes in concepts and techniques, which are easily transferred to the architecture of the seaside house since the beginnings of the Modern Movement. Their living spaces allow us to discover common strategies in the most modern responses. The architect with a seaside project arrives at the site, looks towards the horizon, then walks uphill and chooses a strategic point; then with his drawing board he retraces his steps, he sets the position and then draws in the elements that make up the house that seeks a sea view. The number of potential situations and locations is infinite; certain common spatial accordances are defined in land which is occupied due to the presence of the sea. Comparison of all the houses – 20th century emblems – throws up multiple variations of view and open spaces, and ways of creating settings with common criteria so as to command the vision of the sea. Interiors which open up to the panorama, spaces whose windows seek their view in the expanse of the horizon, openings and closures. We recognise determinant factors in the territory to which the villas respond, architectural categories which give a seaside solution to the search for the modern, the topography, the view, and the open space. The houses share the idea of dominating the landscape from the highest point, and in some areas typology and topography are inverted, thus confirming a common criteria based on the reading of the ground as a conse quence of the search for the view space. Open spaces stand out in all the villas – spaces open to the outdoor air - some are wrapped, some arcaded, doors to the horizon which open up to the exterior, on the roof of the house. There are open and covered spaces, spaces between the exterior and interior, on platforms with banks and surrounding patios, enclosures and open rooms. We discover an achievement of the 20th century in the positive and negative spaces which translate and play with the setting, which occupy or are extracted from built contours and which obtain intermediate spaces in the search for the relationship with the sea. The tools used are the author’s drawings of the houses visited, the cast of travelling companions and their travels, the knowledge gained from study of the projects. Through comparison by means of partial approaches, the drawings define the view of the sea, the occupation mode and the way of relating to the landscape. Architecture for living by the sea in the 20th century, carried out both by and for the architects, shapes the land and constructs the view, creating open spaces in the relationship between the house and the sea surroundings.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This document is a summary of the Bachelor thesis titled “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” written by Pablo de Miguel Morales, Electronics Engineering student at the Universidad Politécnica de Madrid (UPM Madrid, Spain) during an Erasmus+ Exchange Program at the Beuth Hochschule für Technik (BHT Berlin, Germany). The tutor of this project is Dr. Prof. Hild. This project has been developed inside the Neurobotics Research Laboratory (NRL) in close collaboration with Benjamin Panreck, a member of the NRL, and another exchange student from the UPM Pablo Gabriel Lezcano. For a deeper comprehension of the content of the thesis, a deeper look in the document is needed as well as the viewing of the videos and the VHDL design. In the growing field of automation, a large amount of workforce is dedicated to improve, adapt and design motor controllers for a wide variety of applications. In the specific field of robotics or other machinery designed to interact with humans or their environment, new needs and technological solutions are often being discovered due to the existing, relatively unexplored new scenario it is. The project consisted of three main parts: Two VHDL-based systems and one short experiment on the haptic perception. Both VHDL systems are based on a Cognitive Sensorimotor Loop (CSL) which is a control loop designed by the NRL and mainly developed by Dr. Prof. Hild. The CSL is a control loop whose main characteristic is the fact that it does not use any external sensor to measure the speed or position of the motor but the motor itself. The motor always generates a voltage that is proportional to its angular speed so it does not need calibration. This method is energy efficient and simplifies control loops in complex systems. The first system, named CSL Stay In Touch (SIT), consists in a one DC motor system controller by a FPGA Board (Zynq ZYBO 7000) whose aim is to keep contact with any external object that touches its Sensing Platform in both directions. Apart from the main behavior, three features (Search Mode, Inertia Mode and Return Mode) have been designed to enhance the haptic interaction experience. Additionally, a VGA-Screen is also controlled by the FPGA Board for the monitoring of the whole system. This system has been completely developed, tested and improved; analyzing its timing and consumption properties. The second system, named CSL Fingerlike Mechanism (FM), consists in a fingerlike mechanical system controlled by two DC motors (Each controlling one part of the finger). The behavior is similar to the first system but in a more complex structure. This system was optional and not part of the original objectives of the thesis and it could not be properly finished and tested due to the lack of time. The haptic perception experiment was an experiment conducted to have an insight into the complexity of human haptic perception in order to implement this knowledge into technological applications. The experiment consisted in testing the capability of the subjects to recognize different objects and shapes while being blindfolded and with their ears covered. Two groups were done, one had full haptic perception while the other had to explore the environment with a plastic piece attached to their finger to create a haptic handicap. The conclusion of the thesis was that a haptic system based only on a CSL-based system is not enough to retrieve valuable information from the environment and that other sensors are needed (temperature, pressure, etc.) but that a CSL-based system is very useful to control the force applied by the system to interact with haptic sensible surfaces such as skin or tactile screens. RESUMEN. Este documento es un resumen del proyecto fin de grado titulado “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” escrito por Pablo de Miguel, estudiante de Ingeniería Electrónica de Comunicaciones en la Universidad Politécnica de Madrid (UPM Madrid, España) durante un programa de intercambio Erasmus+ en la Beuth Hochschule für Technik (BHT Berlin, Alemania). El tutor de este proyecto ha sido Dr. Prof. Hild. Este proyecto se ha desarrollado dentro del Neurorobotics Research Laboratory (NRL) en estrecha colaboración con Benjamin Panreck (un miembro del NRL) y con Pablo Lezcano (Otro estudiante de intercambio de la UPM). Para una comprensión completa del trabajo es necesaria una lectura detenida de todo el documento y el visionado de los videos y análisis del diseño VHDL incluidos en el CD adjunto. En el creciente sector de la automatización, una gran cantidad de esfuerzo está dedicada a mejorar, adaptar y diseñar controladores de motor para un gran rango de aplicaciones. En el campo específico de la robótica u otra maquinaria diseñada para interactuar con los humanos o con su entorno, nuevas necesidades y soluciones tecnológicas se siguen desarrollado debido al relativamente inexplorado y nuevo escenario que supone. El proyecto consta de tres partes principales: Dos sistemas basados en VHDL y un pequeño experimento sobre la percepción háptica. Ambos sistemas VHDL están basados en el Cognitive Sesnorimotor Loop (CSL) que es un lazo de control creado por el NRL y cuyo desarrollador principal ha sido Dr. Prof. Hild. El CSL es un lazo de control cuya principal característica es la ausencia de sensores externos para medir la velocidad o la posición del motor, usando el propio motor como sensor. El motor siempre genera un voltaje proporcional a su velocidad angular de modo que no es necesaria calibración. Este método es eficiente en términos energéticos y simplifica los lazos de control en sistemas complejos. El primer sistema, llamado CSL Stay In Touch (SIT), consiste en un sistema formado por un motor DC controlado por una FPGA Board (Zynq ZYBO 7000) cuyo objetivo es mantener contacto con cualquier objeto externo que toque su plataforma sensible en ambas direcciones. Aparte del funcionamiento básico, tres modos (Search Mode, Inertia Mode y Return Mode) han sido diseñados para mejorar la interacción. Adicionalmente, se ha diseñado el control a través de la FPGA Board de una pantalla VGA para la monitorización de todo el sistema. El sistema ha sido totalmente desarrollado, testeado y mejorado; analizando su propiedades de timing y consumo energético. El segundo sistema, llamado CSL Fingerlike Mechanism (FM), consiste en un mecanismo similar a un dedo controlado por dos motores DC (Cada uno controlando una falange). Su comportamiento es similar al del primer sistema pero con una estructura más compleja. Este sistema no formaba parte de los objetivos iniciales del proyecto y por lo tanto era opcional. No pudo ser plenamente desarrollado debido a la falta de tiempo. El experimento de percepción háptica fue diseñado para profundizar en la percepción háptica humana con el objetivo de aplicar este conocimiento en aplicaciones tecnológicas. El experimento consistía en testear la capacidad de los sujetos para reconocer diferentes objetos, formas y texturas en condiciones de privación del sentido del oído y la vista. Se crearon dos grupos, en uno los sujetos tenían plena percepción háptica mientras que en el otro debían interactuar con los objetos a través de una pieza de plástico para generar un hándicap háptico. La conclusión del proyecto fue que un sistema háptico basado solo en sistemas CSL no es suficiente para recopilar información valiosa del entorno y que debe hacer uso de otros sensores (temperatura, presión, etc.). En cambio, un sistema basado en CSL es idóneo para el control de la fuerza aplicada por el sistema durante la interacción con superficies hápticas sensibles tales como la piel o pantallas táctiles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Infrared thermography (IRT) is a safe and non-invasive tool used for examining physiological functions based on skin temperature (Tsk) control. Thermograms from 25 anterior cruciate ligament (ACL) surgically operated patients (2 female, 23 male) were taken with a FLIR infrared camera according to the protocol established by the International Academy of Clinical Thermology (IACT). This work consists of 4 studies. Studies 1 and 3 were related to establish the probable thermal difference among different moments of an ACL rupture after surgery: before starting the rehabilitation (P0), at the end of rehabilitation (P1) and 18 months from the end of rehabilitation (P2). For this purpose, on the other hand, studies 2 and 4 were related to establish the skin thermal difference (Tsk) between the injured and the non-injured leg in P0, P1 and P2. Results of the first study showed significant temperature increases in the posterior thigh area between P0 and P1 probably due to a compensatory mechanism. According to this, we can conclude that temperature of the posterior area of the injured and noninjured leg has increased from the first to the last day of the rehabilitation process. In the second study we found significant temperature differences between the injured and non-injured leg in both stages of rehabilitation (p<.01). On the one hand, the temperature of the injured leg is higher in the anterior view and the temperature of the non-injured leg is higher in the posterior view. By the time the patients had recovered from the reconstruction, thermal imbalances should have not been shown between symmetrical parts, but differences seemed to be still latent.. Study 3 shows that temperatures seem to be higher after a year and a half (P2) than in P1. Study 4 shows how thermal values 18 months later seemed to be normalized between both legs. No significant differences were found between the injured leg and the noninjured leg after one year and a half of the rehabilitation process. Considering results from Study 3 and 4 we can conclude that patients seemed to have recovered from a thermal point of view. The temperature in P2 was higher but symmetrical. RESUMEN La termografía infrarroja (IRT) es una herramienta segura y no invasiva utilizada para examinar funciones fisiológicas que se basan en el control de temperatura de la piel (Tsk). Termogramas de 25 pacientes intervenidos quirúrgicamente del ligamento cruzado anterior (LCA) (2 mujeres, 23 hombres) fueron tomadas con una cámara de infrarrojos FLIR de acuerdo con el protocolo establecido por la Academia Internacional de Termología Clínica (IACT). Este trabajo consiste en 4 estudios. Los estudios 1 y 3 describen la diferencia térmica entre los diferentes momentos tras la operación del ligamento cruzado anterior: antes de comenzar la rehabilitación (P0), al final de la rehabilitación (P1) y 18 meses tras finalizar la rehabilitación (P2). Por otra parte, los estudios 2 y 4 describen la diferencia de temperatura de la piel (Tsk) entre la pierna lesionada y la pierna no lesionada en P0, P1 y P2. Los resultados del primer estudio mostraron aumentos significativos de temperatura en la zona posterior de los muslos entre P0 y P1, probablemente debido a un mecanismo de compensación. De acuerdo con esto, se puede concluir que la temperatura de la zona posterior de la pierna lesionada y no lesionada se ha incrementado desde el primero hasta el último día del proceso de rehabilitación. En el segundo estudio se encontraron diferencias significativas de temperatura entre la pierna lesionada y no lesionada en ambas etapas de la rehabilitación (p<.01). Por un lado, la temperatura de la pierna lesionada es mayor en la vista anterior. Por otro lado, la temperatura de la pierna no lesionada es mayor en la vista posterior. Una vez que los pacientes se han recuperado de todo el proceso, no deberían existir desequilibrios térmicos entre partes simétricas del cuerpo, pero las diferencias todavía estaban latentes. El tercer estudio muestra que la temperatura es más alta en P2 que en P1. El cuarto estudio muestra cómo los valores térmicos entre ambas piernas en P2 se han normalizado entre ambas piernas. No se encontraron diferencias significativas entre la pierna lesionada y la pierna no lesionada después de 18 meses tras el proceso de rehabilitación. Considerando los resultados del studio 3 y 4, podemos concluir que se ha llegado a la recuperación total desde un punto de vista térmico. La temperatura es más elevada en P2 pero simétrica.