1000 resultados para patinaje de velocidad
Resumo:
Objetivo: verificar relación entre IMC, capacidades físicas y discriminación en clase de Educación Física, alumnos entre 10 a 11 años, 4 colegios de Chillán, Chile. Metodología: medir flexibilidad, velocidad y resistencia; calcular IMC; posteriormente contestar cuestionario de auto percepción frente a sus pares en relación a discriminación en clases de Educación Física. Población: 178 sujetos; muestra: 44 indicaron discriminación. Resultados: IMC: 72,6 por ciento de la muestra, que sienten discriminación, no presentan niveles de obesidad. Velocidad: 47,7 por ciento sujetos discriminados se encuentran sobre el promedio; demuestra que la velocidad es un factor que influye en la discriminación debido a que menos de la mitad de los alumnos discriminados se encuentran sobre el nivel de aprobación. Resistencia: 75 por ciento superior y 25 por ciento bajo el promedio lo que demuestra que la resistencia no es un factor determinante en la discriminación. Flexibilidad: 11 por ciento de los sujetos bajo el promedio y un 89 por ciento sobre el nivel de aprobación; se indica que la flexibilidad no es un factor determinarte en la discriminación. Los resultados indicaron que la relación de IMC y las capacidades físicas, en base a la discriminación en la clase de Educación Física, existe relación entre ambas, pero con resultados diferentes, ya que el índice de masa corporal en sujetos que presentan el rango de bajo peso y son discriminados, tienen mejor capacidad física que en alumnos de rango normal, riesgo de obesidad y obesidad
Resumo:
Los paradigmas de la Ciencia han cambiado. Las teorías científicas pasaron a ser modelos explicativos parciales y provisionales que intentan ofrecer respuestas a los procesos de cambio permanente en contextos históricos, sociales y culturales determinados. Los problemas globales que afrontamos los seres humanos exigen soluciones que no en todos los casos se resuelven desde la objetividad científica sino desde los juicios de valor, que posibiliten a los ciudadanos enfrentar los nuevos desafíos morales y éticos que demanda la sociedad actual. En este contexto, la educación se muestra en desventaja respecto de la velocidad con se producen los cambios que influyen en la Enseñanza en general, y de la Física y Química en particular. Hoy se requieren profesionales docentes dotados de un marco teórico actualizado cuyas bases se edifican a través del aporte de la investigación educativa, que ayuden a favorecer prácticas docentes reflexivas, tomando como referencia lineamientos sociales, pedagógicos, psicológicos y epistemológicos, imprescindibles para contribuir con todos los docentes, que día a día enfrentan a alumnos poco motivados para el aprendizaje de Física o Química Muchos intentos se han realizado para mejorar los métodos de enseñanza, pero, en la mayoría de los casos, con resultados desalentadores; en este breve análisis, trataremos de resumir la importancia que tiene para una enseñanza competente, el hecho de poder trabajar guiados por un marco teórico adecuado. Queda claro que se hacen necesarios importantes cambios en las prácticas de enseñanza, no sólo en cuanto a los requerimientos que tienen que ver con los docentes, sino en los criterios que se aplican a los diseños curriculares. Actualmente, se ha popularizado lo que se denomina educación basada en competencias, referido a los logros requeridos por los estudiantes, sin embargo, este mismo criterio es aplicable a docentes y sus metodologías de enseñanza. Vemos entonces, que debe aplicarse un enfoque innovador e integral que contemple el desarrollo de habilidades para construir competencias, para lo cual, resulta necesario ubicar el conocimiento, recuperarlo, transformarlo y relacionarlo con los conocimientos que ya se poseen para crear o desempeñar una actividad de manera eficiente y efectiva. Por todo lo señalado, no es aventurado sostener que los grandes cambios que exige la enseñanza de Física y Química, requieren también urgentes cambios teóricos y metodológicos, y que, los profesores de esas asignaturas deben "Volver a Aprender" para no perder el derecho a enseñar.
Resumo:
El propósito de esta ponencia es mostrar cómo se está trabajando en el Colegio Nacional, en Atletismo, en el marco de la enseñanza para la comprensión. Se piensa, desde el Departamento una Educación Física capaz de dar múltiples respuesta a variadas y cambiantes demandas de los alumnos, capacidades individuales, características y experiencias motrices anteriores de los mismos. Una enseñanza de la Educación Física basada en la comprensión trata de otorgar a la motricidad intención, sentido y complejidad, superando el concepto tradicional, aspirando a la formación de alumnos capaces de conocer, explicar y fundamentar los tópicos apropiados clase a clase y operar con ellos. En esta oportunidad abordaremos los desempeños relacionados con las capacidades condicionales, en particular la resistencia. Tratamos de llevar al alumno a descubrir que tanto la fuerza, velocidad, flexibilidad y resistencia son una manifestación de sí mismo, de su potencialidad y posibilidades, que su desarrollo es necesario porque lo vincula con cualquier acción motriz que quiera hacer. Estas capacidades siempre estarán presentes y los favorecerá dotándolo de mayor autonomía. Seleccionamos contenidos, que creemos, contribuyen a que los alumnos puedan y sepan elegir prácticas corporales a realizar dentro y/o fuera del ámbito escolar, en el contexto del cuidado de la salud
Resumo:
Este artículo analiza las representaciones de la militancia que surgen de los escritos editados por militantes montoneros, a propósito de la realización de la Contraofensiva Estratégica (CE). Particularmente, se abordan los aportes de Roberto Cirilo Perdía en La otra historia. Testimonio de un jefe montonero; de Gonzalo Leónidas Chaves en Los del 73. Memoria montonera; de Juan Gasparini en Montoneros, final de cuentas; de Jorge Falcone en Memorial de guerra larga, Un pibe entre cientos de miles, y de Eduardo Astiz en Lo que mata de las balas es la velocidad. Una historia de la contraofensiva montonera del 79. El objetivo es la exploración de las reelaboraciones memorialísticas de la maniobra de retorno realizada por los protagonistas montoneros. Se trata de indagar en sus argumentos, de forma tal de aportar a la complejidad que la CE entraña de por sí y el lugar que ocupa en las memorias que versan sobre el pasado reciente. Objeto polémico en las memorias militantes, en tanto y en cuanto no hay consenso alguno sobre la pertinencia de su realización ni sobre el alcance de sus consecuencias, el análisis busca revisar las concepciones que se conjugan en la representación de la CE
Resumo:
La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.
Resumo:
Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.
Resumo:
En este proyecto, se presenta un sensor de temperatura integrado CMOS basado en la medida de una variable secundaria, cuyo valor es dependiente de la temperatura, como es el tiempo de subida que presenta una señal eléctrica en sus flancos de subida. Con el objetivo de reducir coste y potencia consumida, el sensor integrado de temperatura propuesto genera un pulso con un ancho proporcional a la temperatura medida. Este sensor para realizar la medida elimina la necesidad de tener una señal que sirva de referencia. El área ocupada por este modelo de sensor es de 1.8967mm2, siendo éste fabricado en tecnología CMOS de 0.35µm de 4 capas de metal. Gracias a la excelente linealidad que presenta la salida digital del sensor, el error de medida alcanzado es como máximo de ±0.520ºC. La resolución efectiva mostrada en el caso peor es de 0.7ºC, y el consumo de potencia se encuentra por debajo de los 263µW, con una velocidad de realización de medidas que puede llegar a alcanzar las 1.5x10^6 medidas por segundo.
Resumo:
La cristalización de sales en los paramentos (eflorescencias), y bajo ellos (subflorescencias), es una de las principales causas de deterioro de los materiales de construcción de los edificios históricos. Las formas cristalinas de las sales que permanecen sometidas a flujos de humedad, cambian estacionalmente y en función de las condiciones ambientales, aunque todavía se desconocen muchos de los mecanismos implicados en estos procesos. Por ello, los autores han iniciado un proceso de investigación cuya finalidad es desarrollar una metodología específica que permita estudiar cómo las condiciones de evaporación, y más específicamente la velocidad del aire tangente a la superficie de evaporación, determinan el proceso de cristalización de las sales y su movilidad. Primero hemos desarrollado una metodología experimental para estudiar la influencia del caudal del aire en la formación de eflorescencias, y comprender mejor la evolución temporal de las formaciones salinas. Después hemos investigado la posibilidad de utilizar un caudal de aire controlado, para favorecer determinadas formas de cristalización de sales, en función del material afectado. Hemos realizado una serie de ensayos con diversos materiales, todos ellos porosos y contaminados con cantidades controladas de sal, con un dispositivo experimental específicamente diseñado para esta investigación. El objeto de esta comunicación es presentar el dispositivo experimental, y sus resultados. Estos nos han permitido observar el movimiento de la humedad y de la sal durante el secado, lo que puede utilizarse para plantear su posible extracción, es decir la optimización de los métodos de desalación y saneamiento de paramentos basados en esta técnica.
Resumo:
El problema central que aborda esta tesis doctoral es el estudio de la correspondencia entre la mecanica clasica y la mecanica cuantica en sistemas hamiltonianos clasicamente caoticos, tema que se enmarca dentro del llamado caos cuantico. En concreto, en este trabajo proponemos un nuevo y efectivo metodo para calcular las autofunciones de sistemas caoticos usando una base de funciones de scar. Dichas funciones de scar juegan un papel fundamental en el estudio de las manifestaciones cuanticas del caos, ya que se trata de funciones de onda semiclasicas con una dispersion muy peque~na y localizadas a lo largo de las variedades invariantes de las orbitas periodicas inestables del sistema que conforman la estructura organizativa del caos clasico. El metodo de calculo desarrollado se ha denominado Metodo de Gram- Schmidt Selectivo (MGSS), dado que construye la base haciendo uso del metodo de Gram{Schmidt convencional pero teniendo en cuenta, ademas, la dispersi on de las funciones de scar y la longitud de la orbita periodica a lo largo de la cual se localizan. El MGSS nos ha permitido calcular con gran precision las 2400 autofunciones con menor energa de un oscilador cuartico altamente caotico con dos grados de libertad acoplados, as como autofunciones muy excitadas en una ventana de energa, utilizando en ambos casos una base mucho mas eciente que las descritas en la literatura. Ademas, hemos empleado el MGSS para calcular las autofunciones del sistema molecular LiNC/LiCN, que presenta un espacio de fases con zonas de regularidad y con regiones en las que el movimiento es altamente caotico; en este ultimo sistema, hemos calculado de forma muy eciente las autofunciones asociadas a las primeras 66 energas. Finalmente, hemos propuesto un metodo perturbativo para calcular velocidades de reaccion en sistemas abiertos descritos por potenciales anarmonicos. Con este metodo, hemos calculado la velocidad de reaccion de distintos potenciales de uno y dos grados de libertad, as como la velocidad de isomerizacion del sistema molecular LiNC/LiCN, tanto sometido a un ruido blanco (sin correlaciones) como en presencia de un ba~no de atomos de argon, lo que constituye un entorno con correlaciones. El metodo desarrollado es independiente de la supercie divisoria y nos ha permitido obtener correcciones analticas a la famosa formula de Kramers, lo que posibilita el calculo exacto de velocidades de reaccion en potenciales anarmonicos que interaccionan con el entorno.
Resumo:
TIPO DE BUQUE: Portacontenedores. CAPACIDAD DE CARGA: 1860 TEUs (200 refrigerados). PESO MUERTO: 22800 TPM. SOCIEDAD DE CLASIFICACIÓN: Lloyd’s Register. Cámara desatendida. REGLAMENTOS: Solas 2009, Marpol, Convenio de Líneas de Carga. VELOCIDAD: 22 nudos al 85% MCR en pruebas. AUTONOMÍA: 12000 millas al 85% MCR y 15% de margen de mar. TRIPULACIÓN: 27 personas.
Resumo:
El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.
Resumo:
Abstract Air pollution is a big threat and a phenomenon that has a specific impact on human health, in addition, changes that occur in the chemical composition of the atmosphere can change the weather and cause acid rain or ozone destruction. Those are phenomena of global importance. The World Health Organization (WHO) considerates air pollution as one of the most important global priorities. Salamanca, Gto., Mexico has been ranked as one of the most polluted cities in this country. The industry of the area led to a major economic development and rapid population growth in the second half of the twentieth century. The impact in the air quality is important and significant efforts have been made to measure the concentrations of pollutants. The main pollution sources are locally based plants in the chemical and power generation sectors. The registered concerning pollutants are Sulphur Dioxide (SO2) and particles on the order of ∼10 micrometers or less (PM10). The prediction in the concentration of those pollutants can be a powerful tool in order to take preventive measures such as the reduction of emissions and alerting the affected population. In this PhD thesis we propose a model to predict concentrations of pollutants SO2 and PM10 for each monitoring booth in the Atmospheric Monitoring Network Salamanca (REDMAS - for its spanish acronym). The proposed models consider the use of meteorological variables as factors influencing the concentration of pollutants. The information used along this work is the current real data from REDMAS. In the proposed model, Artificial Neural Networks (ANN) combined with clustering algorithms are used. The type of ANN used is the Multilayer Perceptron with a hidden layer, using separate structures for the prediction of each pollutant. The meteorological variables used for prediction were: Wind Direction (WD), wind speed (WS), Temperature (T) and relative humidity (RH). Clustering algorithms, K-means and Fuzzy C-means, are used to find relationships between air pollutants and weather variables under consideration, which are added as input of the RNA. Those relationships provide information to the ANN in order to obtain the prediction of the pollutants. The results of the model proposed in this work are compared with the results of a multivariate linear regression and multilayer perceptron neural network. The evaluation of the prediction is calculated with the mean absolute error, the root mean square error, the correlation coefficient and the index of agreement. The results show the importance of meteorological variables in the prediction of the concentration of the pollutants SO2 and PM10 in the city of Salamanca, Gto., Mexico. The results show that the proposed model perform better than multivariate linear regression and multilayer perceptron neural network. The models implemented for each monitoring booth have the ability to make predictions of air quality that can be used in a system of real-time forecasting and human health impact analysis. Among the main results of the development of this thesis we can cite: A model based on artificial neural network combined with clustering algorithms for prediction with a hour ahead of the concentration of each pollutant (SO2 and PM10) is proposed. A different model was designed for each pollutant and for each of the three monitoring booths of the REDMAS. A model to predict the average of pollutant concentration in the next 24 hours of pollutants SO2 and PM10 is proposed, based on artificial neural network combined with clustering algorithms. Model was designed for each booth of the REDMAS and each pollutant separately. Resumen La contaminación atmosférica es una amenaza aguda, constituye un fenómeno que tiene particular incidencia sobre la salud del hombre. Los cambios que se producen en la composición química de la atmósfera pueden cambiar el clima, producir lluvia ácida o destruir el ozono, fenómenos todos ellos de una gran importancia global. La Organización Mundial de la Salud (OMS) considera la contaminación atmosférica como una de las más importantes prioridades mundiales. Salamanca, Gto., México; ha sido catalogada como una de las ciudades más contaminadas en este país. La industria de la zona propició un importante desarrollo económico y un crecimiento acelerado de la población en la segunda mitad del siglo XX. Las afectaciones en el aire son graves y se han hecho importantes esfuerzos por medir las concentraciones de los contaminantes. Las principales fuentes de contaminación son fuentes fijas como industrias químicas y de generación eléctrica. Los contaminantes que se han registrado como preocupantes son el Bióxido de Azufre (SO2) y las Partículas Menores a 10 micrómetros (PM10). La predicción de las concentraciones de estos contaminantes puede ser una potente herramienta que permita tomar medidas preventivas como reducción de emisiones a la atmósfera y alertar a la población afectada. En la presente tesis doctoral se propone un modelo de predicción de concentraci ón de los contaminantes más críticos SO2 y PM10 para cada caseta de monitorización de la Red de Monitorización Atmosférica de Salamanca (REDMAS). Los modelos propuestos plantean el uso de las variables meteorol ógicas como factores que influyen en la concentración de los contaminantes. La información utilizada durante el desarrollo de este trabajo corresponde a datos reales obtenidos de la REDMAS. En el Modelo Propuesto (MP) se aplican Redes Neuronales Artificiales (RNA) combinadas con algoritmos de agrupamiento. La RNA utilizada es el Perceptrón Multicapa con una capa oculta, utilizando estructuras independientes para la predicción de cada contaminante. Las variables meteorológicas disponibles para realizar la predicción fueron: Dirección de Viento (DV), Velocidad de Viento (VV), Temperatura (T) y Humedad Relativa (HR). Los algoritmos de agrupamiento K-means y Fuzzy C-means son utilizados para encontrar relaciones existentes entre los contaminantes atmosféricos en estudio y las variables meteorológicas. Dichas relaciones aportan información a las RNA para obtener la predicción de los contaminantes, la cual es agregada como entrada de las RNA. Los resultados del modelo propuesto en este trabajo son comparados con los resultados de una Regresión Lineal Multivariable (RLM) y un Perceptrón Multicapa (MLP). La evaluación de la predicción se realiza con el Error Medio Absoluto, la Raíz del Error Cuadrático Medio, el coeficiente de correlación y el índice de acuerdo. Los resultados obtenidos muestran la importancia de las variables meteorológicas en la predicción de la concentración de los contaminantes SO2 y PM10 en la ciudad de Salamanca, Gto., México. Los resultados muestran que el MP predice mejor la concentración de los contaminantes SO2 y PM10 que los modelos RLM y MLP. Los modelos implementados para cada caseta de monitorizaci ón tienen la capacidad para realizar predicciones de calidad del aire, estos modelos pueden ser implementados en un sistema que permita realizar la predicción en tiempo real y analizar el impacto en la salud de la población. Entre los principales resultados obtenidos del desarrollo de esta tesis podemos citar: Se propone un modelo basado en una red neuronal artificial combinado con algoritmos de agrupamiento para la predicción con una hora de anticipaci ón de la concentración de cada contaminante (SO2 y PM10). Se diseñó un modelo diferente para cada contaminante y para cada una de las tres casetas de monitorización de la REDMAS. Se propone un modelo de predicción del promedio de la concentración de las próximas 24 horas de los contaminantes SO2 y PM10, basado en una red neuronal artificial combinado con algoritmos de agrupamiento. Se diseñó un modelo para cada caseta de monitorización de la REDMAS y para cada contaminante por separado.
Resumo:
El propósito de la presente investigación es determinar si, a través del estudio y análisis de los estudios de tráfico en autopistas de peaje, se pueden determinar las razones de los incumplimientos en las previsiones de estos estudios. La metodología se basa en un análisis empírico ex- post facto de los estudios de tráfico contenidos en los anteproyectos de las autopistas Radial 3 y Radial 5 y los datos realmente verificados. Tras una introducción para presentar las principales características de las autopistas de peaje, se realiza una revisión de la bibliografía sobre el cumplimiento de las previsiones de tráfico. Lo anterior permite establecer una serie de aspectos que pueden contribuir a estos incumplimientos, así como una serie de medidas encontradas para mejorar las futuras previsiones. Ya en el núcleo fundamental de la investigación, esta se centra en el análisis del cumplimiento de las previsiones de tráfico contenidas en los anteproyectos de la Radial 3 y Radial 5. Se realiza un análisis crítico de la metodología adoptada, así como de las variables e hipótesis realizadas. Tras este primer análisis, se profundiza en la fase de asignación de los estudios. Siempre con base a los tráficos reales y para el año 2006, se cuantifica el efecto en los incumplimientos, por un lado de las variables utilizadas, y por otro, del propio método ó curva de asignación. Finalmente, y con base en los hallazgos anteriores, se determinan una serie de limitaciones en el método de asignación de tráficos entre recorridos alternativos para el caso de entornos urbanos usado. El planteamiento con base a las teorías del agente racional y maximización de la utilidad esperada es criticado desde la perspectiva de la teoría de decisión bajo condiciones de riesgo planteada por Kahneman y Tversky. Para superar las limitaciones anteriores, se propone una nueva curva de asignación semi empírica que relaciona la proporción del tráfico que circula por la autopista de peaje con la velocidad media en la autovía libre alternativa. ABSTRACT The aim of this research is to confirm whether the forensic analysis of the traffic forecast studies for tolled highways may bring to light the reasons behind the lack of accuracy. The methodology used on this research is empirical and is based on the ex –post facto analysis of the real traffic numbers compared to the forecasted for the tolled highways Radial 3 and Radial 5. Firstly the main features of tolled highways are presented as an introductory chapter. Secondly a broad bibliographic search is presented, this is done from a global perspective and from the Spanish perspective too. From this review, a list of the main causes behind the systematic inaccuracy together with measures to improve future traffic forecast exercises are shown. In what we could consider as the core of the research, it focuses on the ratios of actual / forecast traffic for the tolled highways Radial 3 y Radial 5 in Madrid outskirts. From a critical perspective, the methodology and inputs used in the traffic studies are analysed. In a further step, the trip assignment stage is scrutinised to quantify the influence of the inputs and the assignment model itself in the accuracy of the traffic studies. This exercise is bases on the year 2006. Finally, the assignment model used is criticised for its application in tolled urban highways. The assumptions behind the model, rational agent and expected utility maximization theories, are questioned under the theories presented by Kahneman and Tversky (Prospect Theory). To overcome these assignment model limitations, the author presents a semi empiric new diversion curve. This curve links the traffic proportion using the tolled highway and the average speed in the toll free alternative highway.
Resumo:
La fisuración iniciada en la superficie de los pavimentos asfálticos constituye uno de los más frecuentes e importantes modos de deterioro que tienen lugar en los firmes bituminosos, como han demostrado los estudios teóricos y experimentales llevados a cabo en la última década. Sin embargo, este mecanismo de fallo no ha sido considerado por los métodos tradicionales de diseño de estos firmes. El concepto de firmes de larga duración se fundamenta en un adecuado seguimiento del proceso de avance en profundidad de estos deterioros y la intervención en el momento más apropiado para conseguir mantenerlos confinados como fisuras de profundidad parcial en la capa superficial más fácilmente accesible y reparable, de manera que pueda prolongarse la durabilidad y funcionalidad del firme y reducir los costes generalizados de su ciclo de vida. Por lo tanto, para la selección de la estrategia óptima de conservación de los firmes resulta esencial disponer de metodologías que posibiliten la identificación precisa in situ de la fisuración descendente, su seguimiento y control, y que además permitan una determinación fiable y con alto rendimiento de su profundidad y extensión. En esta Tesis Doctoral se presentan los resultados obtenidos mediante la investigación sistemática de laboratorio e in situ llevada a cabo para la obtención de datos sobre fisuración descendente en firmes asfálticos y para el estudio de procedimientos de evaluación de la profundidad de este tipo de fisuras empleando técnicas de ultrasonidos. Dichos resultados han permitido comprobar que la metodología no destructiva propuesta, de rápida ejecución, bajo coste y sencilla implementación (principalmente empleada hasta el momento en estructuras metálicas y de hormigón, debido a las dificultades que introduce la naturaleza viscoelástica de los materiales bituminosos) puede ser aplicada con suficiente fiabilidad y repetibilidad sobre firmes asfálticos. Las medidas resultan asimismo independientes del espesor total del firme. Además, permite resolver algunos de los inconvenientes frecuentes que presentan otros métodos de diagnóstico de las fisuras de pavimentos, tales como la extracción de testigos (sistema destructivo, de alto coste y prolongados tiempos de interrupción del tráfico) o algunas otras técnicas no destructivas como las basadas en medidas de deflexiones o el georradar, las cuales no resultan suficientemente precisas para la investigación de fisuras superficiales. Para ello se han realizado varias campañas de ensayos sobre probetas de laboratorio en las que se han estudiado diferentes condiciones empíricas como, por ejemplo, distintos tipos de mezclas bituminosas en caliente (AC, SMA y PA), espesores de firme y adherencias entre capas, temperaturas, texturas superficiales, materiales de relleno y agua en el interior de las grietas, posición de los sensores y un amplio rango de posibles profundidades de fisura. Los métodos empleados se basan en la realización de varias medidas de velocidad o de tiempo de transmisión del pulso ultrasónico sobre una única cara o superficie accesible del material, de manera que resulte posible obtener un coeficiente de transmisión de la señal (mediciones relativas o autocompensadas). Las mediciones se han realizado a bajas frecuencias de excitación mediante dos equipos de ultrasonidos diferentes dotados, en un caso, de transductores de contacto puntual seco (DPC) y siendo en el otro instrumento de contacto plano a través de un material especialmente seleccionado para el acoplamiento (CPC). Ello ha permitido superar algunos de los tradicionales inconvenientes que presenta el uso de los transductores convencionales y no precisar preparación previa de las superficies. La técnica de autocalibración empleada elimina los errores sistemáticos y la necesidad de una calibración local previa, demostrando el potencial de esta tecnología. Los resultados experimentales han sido comparados con modelos teóricos simplificados que simulan la propagación de las ondas ultrasónicas en estos materiales bituminosos fisurados, los cuales han sido deducidos previamente mediante un planteamiento analítico y han permitido la correcta interpretación de dichos datos empíricos. Posteriormente, estos modelos se han calibrado mediante los resultados de laboratorio, proporcionándose sus expresiones matemáticas generalizadas y gráficas para su uso rutinario en las aplicaciones prácticas. Mediante los ensayos con ultrasonidos efectuados en campañas llevadas a cabo in situ, acompañados de la extracción de testigos del firme, se han podido evaluar los modelos propuestos. El máximo error relativo promedio en la estimación de la profundidad de las fisuras al aplicar dichos modelos no ha superado el 13%, con un nivel de confianza del 95%, en el conjunto de todos los ensayos realizados. La comprobación in situ de los modelos ha permitido establecer los criterios y las necesarias recomendaciones para su utilización sobre firmes en servicio. La experiencia obtenida posibilita la integración de esta metodología entre las técnicas de auscultación para la gestión de su conservación. Abstract Surface-initiated cracking of asphalt pavements constitutes one of the most frequent and important types of distress that occur in flexible bituminous pavements, as clearly has been demonstrated in the technical and experimental studies done over the past decade. However, this failure mechanism has not been taken into consideration for traditional methods of flexible pavement design. The concept of long-lasting pavements is based on adequate monitoring of the depth and extent of these deteriorations and on intervention at the most appropriate moment so as to contain them in the surface layer in the form of easily-accessible and repairable partial-depth topdown cracks, thereby prolonging the durability and serviceability of the pavement and reducing the overall cost of its life cycle. Therefore, to select the optimal maintenance strategy for perpetual pavements, it becomes essential to have access to methodologies that enable precise on-site identification, monitoring and control of top-down propagated cracks and that also permit a reliable, high-performance determination of the extent and depth of cracking. This PhD Thesis presents the results of systematic laboratory and in situ research carried out to obtain information about top-down cracking in asphalt pavements and to study methods of depth evaluation of this type of cracking using ultrasonic techniques. These results have demonstrated that the proposed non-destructive methodology –cost-effective, fast and easy-to-implement– (mainly used to date for concrete and metal structures, due to the difficulties caused by the viscoelastic nature of bituminous materials) can be applied with sufficient reliability and repeatability to asphalt pavements. Measurements are also independent of the asphalt thickness. Furthermore, it resolves some of the common inconveniences presented by other methods used to evaluate pavement cracking, such as core extraction (a destructive and expensive procedure that requires prolonged traffic interruptions) and other non-destructive techniques, such as those based on deflection measurements or ground-penetrating radar, which are not sufficiently precise to measure surface cracks. To obtain these results, extensive tests were performed on laboratory specimens. Different empirical conditions were studied, such as various types of hot bituminous mixtures (AC, SMA and PA), differing thicknesses of asphalt and adhesions between layers, varied temperatures, surface textures, filling materials and water within the crack, different sensor positions, as well as an ample range of possible crack depths. The methods employed in the study are based on a series of measurements of ultrasonic pulse velocities or transmission times over a single accessible side or surface of the material that make it possible to obtain a signal transmission coefficient (relative or auto-calibrated readings). Measurements were taken at low frequencies by two short-pulse ultrasonic devices: one equipped with dry point contact transducers (DPC) and the other with flat contact transducers that require a specially-selected coupling material (CPC). In this way, some of the traditional inconveniences presented by the use of conventional transducers were overcome and a prior preparation of the surfaces was not required. The auto-compensating technique eliminated systematic errors and the need for previous local calibration, demonstrating the potential for this technology. The experimental results have been compared with simplified theoretical models that simulate ultrasonic wave propagation in cracked bituminous materials, which had been previously deduced using an analytical approach and have permitted the correct interpretation of the aforementioned empirical results. These models were subsequently calibrated using the laboratory results, providing generalized mathematical expressions and graphics for routine use in practical applications. Through a series of on-site ultrasound test campaigns, accompanied by asphalt core extraction, it was possible to evaluate the proposed models, with differences between predicted crack depths and those measured in situ lower than 13% (with a confidence level of 95%). Thereby, the criteria and the necessary recommendations for their implementation on in-service asphalt pavements have been established. The experience obtained through this study makes it possible to integrate this methodology into the evaluation techniques for pavement management systems.
Resumo:
La variación en el contenido de humedad (CH) tiene una influencia significativa tanto en las propiedades físico- químicas de la madera, como en sus propiedades electromagnéticas y por tanto afecta a las características de la propagación de las ondas. En concreto, en este trabajo se estudia la capacidad del georradar (GR) empleando una antena de 1.6GHz de frecuencia central para registrar las variaciones que se producen en la velocidad y en la amplitud de las ondas electromagnéticas cuando se propagan en unas viguetas de madera de Pinus pinaster Ait de uso estructural cuyo CH va disminuyendo. Se ha comprobado como cuando el CH descendía la velocidad de propagación y las amplitudes, tanto de la onda directa como de la reflejada aumentaba. Los altos factores de correlación encontrados demuestran que el GR es una técnica capaz de evaluar, de forma no destructiva, el CH de la madera de uso estructural. The moisture content variations in wood have a significant influence in wood?s physicochemical properties, as well as in its electromagnetic properties and to specific effects upon waves? characteristics. In particular, this paper focuses on the analysis of the Ground-penetrating Radar?s (GPR) using an antenna of 1.6 GHz central frequency capacity to register the velocity and the amplitude of the electromagnetic waves? variation during the drying process of Pinus pinaster Ait timber joists. The results showed that when timber MC descended, the propagation velocity and amplitude of both the direct and the reflected wave increased. The high correlation found between the variables studied demonstrates GPR efficiency and the innovative application of this technique as a non-destructive evaluation tool for timber structures, particularly when studying its moisture content.