969 resultados para Precisión


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente artículo aborda los cambios en los espacios rurales de América Latina y los posibles escenarios futuros a través de estudios de caso desarrollados en el contexto del proyecto "Designing a methology to evaluate local knowlegde on global change and its role in the construction of future land use scenarios by local actors" IAI Institut for Global Change (director Jean Francois Tourrand, CIRAD). Este proyecto tiene un objetivo metodológico principal que consiste en elaborar, testear y validar una metodología para evaluar el conocimiento local sobre el cambio global y cómo se incorpora tal conocimiento en la construcción de escenarios futuros de uso de suelo. La complejidad del problema implica un abordaje interdisciplinario a través de la participación de investigadores de distintos países e instituciones y el desarrollo de trabajos de campo en distintos espacios rurales (1) En lo que respecta a la metodología elaborada, las experiencias permitieron avanzar en la precisión de las informaciones a recabar (factores de cambio, escenarios y condiciones) y fue enriquecedora la experiencia de los trabajos de campo en Uruguay, Brasil y Perú.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el primer capitulo, la tesis se centró en las Crónicas del bulevar [1902] que condensan el desdoblamiento de la práctica ugarteana, es decir su actividad literaria y la escritura de crónicas periodísticas con un sesgo político y sociológico. Uno de los rasgos característicos fue el establecimiento de diagnósticos acerca de las tendencias culturales europeas o latinoamericanas del presente, una operación retórica que puede leerse como indicio mismo de la modernización de las letras hispanoamericanas. En este capitulo puede verse el modo en que Ugarte evalúa el ejercicio de la crónica francesa, el caso Dreyfus, los congresos de la juventud o la Exposición Universal de 1900. Por un lado, me detuve en su recepción de la conferencia de Jaures sobre el arte y el socialismo, a partir de lo cual pude describir las claves de su intervención intelectual: un socialismo eufemizado; la fe en la ciencia propia del ensayismo latinoamericano, aun cuando los observadores de la época conocían las doctrinas antipositivistas por las ediciones españolas de Sempere, por ejemplo. Finalmente, la interpretación del sentido indefectible de la humanidad hacia el socialismo y la necesidad de inscribir las practicas artísticas en ese sentido, lo que le da argumentos contra el modernismo, al que tilda de individualista y residual. Por otro lado, la afirmación juvenilista ugarteana a través de la cual aparece un diálogo temprano con el discurso de Rodo: sus crónicas sobre la juventud francesa y sudamericana, respectivamente, encierran una concepción de esta última como fuerza política. En el segundo capitulo, analizo su reflexión en torno a la identidad latinoamericana dio lugar a un progresivo abandono del dogma de la desigualdad de las razas y su función disonante respecto de las lecturas de la sociología positivista. A su vez, en relación con las reflexiones sobre la identidad latinoamericana, la te matización del discurso latinista europeo en función de estas. Esto permitió explicar tanto la singularidad de su programa de unión continental, cuanto las características del discurso antiimperialista que desarrolla tempranamente. En el capítulo 3, para comprender continuidades y desvíos respecto de la tradición antinorteamericana rioplatense, resulto necesario situar a Ugarte en el marco de dicha tradición. Allí pude reconocer una configuración epocal, legible en Martí, Darío, Rodo, Ugarte y García Calderon, caracterizada por la afirmación de "la América latina" como tierra de promesas, capaz de redimir al propio Occidente. La investigación me llevo, asimismo, a identificar con precisión no solo los puntos de contacto y diferencias de las intervenciones latinoamericanistas de Ugarte en relación con los socialistas argentinos, sino las propias tensiones doctrinarias que surgían de la posición periférica de los actores analizados, en el interior de dicha formación, en su etapa de constitución como partido que pretendía dar un marco nacional a sus acciones. La intervención universalista autorizada en el cientificismo, así como la afirmación identitaria continental, permiten a su vez explicar el ejercicio ugarteano de la critica literaria analizado en el cuarto capitulo. Lo primero quedo claro en la insistente patologización de los poetas modernistas y de la poética misma y de sus efectos. También advertí los modos singulares con que Ugarte interviene en el diseño de un programa para la literatura latinoamericana en el momento de emergencia de un campo intelectual en formación. En el último capitulo, reconstruí la trayectoria literaria ubicando tres momentos: los comienzos en Buenos Aires, con la creación de la Revista literaria, que revelan una temprana tendencia al emprendimiento de proyectos culturales, paralelamente a una iniciativa "religadora" [Zanetti] entre los escritores jóvenes del continente. El segundo momento, el más fecundo, se ubica entre su llegada a Paris y 1910, poco antes de su partida hacia América; intente mostrar que las primeras publicaciones retoman varios de los temas modernistas. En 1924 ubique el 3er momento de la trayectoria, en que Ugarte vuelve a la escribir después de 14 años de silencio literario. Ugarte incursiona en la novela, introduciendo procedimientos autorreferenciales pirandelianos, a través de una fabula alegórica con motivos modernistas [las mascaras, Pierrot, el poeta victima del mundo burgués]. Intente mostrar que Ugarte resuelve imaginariamente, dándole un cierre, los modos de su intervención intelectual marcada por el profetismo. La escritura libera así fantasmas políticos y autobiográficos, y propone una distopía respecto de los destinos emancipatorios de las sociedades modernas, exhibiendo una gran lucidez respecto de los resortes de la dominación simbólica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antonio Álamo (Córdoba, 1964) es un autor destacado del actual teatro español, legitimado por la crítica y por importantes premios como el Caja de España (2000) o el Born (1996 y 2005 ). Su discurso dramático ofrece múltiples aristas de indagación por la variedad de sus registros, las diferentes formas utilizadas como el drama, la comedia costumbrista y la pieza breve, la diversidad de temas y personajes y la intensidad de los conflictos. En ese amplio espectro su obra postula una aguda reflexión sobre el poder y los comportamientos humanos. En sus piezas lo verbal y lo teatral, texto literario/representación, aparecen estrechamente ligados y juntos van hilando los significados en torno a la unidad y a la precisión semántica del texto mediante distintos recursos como la metateatralidad, la intertextualidad, la ironía como forma de distanciamiento y la reescritura o la traslación de la narrativa al teatro. Nuestro trabajo indaga en su obra teatral con el propósito de configurar su poética, fundada en la premisa de la singularidad del discurso dramático, diferente de la novela donde el autor (también novelista consagrado) entiende que "cabe todo: el ensayo, la poesía o el drama" en tanto "en el drama solo cabe el drama".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta es una tesis situada en el campo de estudios interdisciplinario de las Ciencias de la Educación, la Historia y la Psicología Social, por lo que es denominada como un estudio acerca de la educación, y su historia psicosocial. La identidad es un concepto sumamente prolífico a la hora de pensar las problemáticas educativas en claves históricas y psicosociales. Si a esto se le agrega la interacción con los cánones escolares, se alcanza un campo rico y fértil para ser investigado. A partir de ahí, la investigación se propone por objetivo general, producir un conocimiento explicativo en torno a la configuración de identidad y el impacto producido por los cánones culturales de la escuela en la herencia cultural de las poblaciones migratorias. A los fines de situar empíricamente el objeto, la dimensión espacial elegida, ha sido una comunidad de la ciudad de Rosario, Santa Fe. El barrio Belgrano y, en particular, la escuela No 91 República Federativa de Brasil, que es la oferta educativa estatal de nivel primario vinculada al mismo. Se desarrollan elementos analíticos que hacen a la configuración socio-histórica (segunda mitad del siglo XX) y educativa del barrio Belgrano. Se trabajan categorías que involucran a la identidad barrial, su historia, la transmisión del legado cultural y el sentido de pertenencia de los sujetos que viven e interactúan en él. Se parte de las siguientes hipótesis: los migrantes internos se incorporan a la comunidad local escapando de las necesidades económicas de su lugar de origen No obstante, una vez asentados los migrantes toman como propias las representaciones adquiridas confluyendo con las referidas a la pertenencia barrial. Si la escuela pretende que la identidad de los migrantes sea absorbida como una adaptación pasiva al canon cultural, esta fracasa en aquellos aspectos que hacen al legado cultural, aunque continúe con la reproducción de ciertos aspectos de la homogeneización y de las diferencias sociales. La metodología cualitativa se ajusta a las pretensiones establecidas. El análisis de entrevistas, documentos, y datos censales es utilizado siendo triangulados los datos para una mejor precisión de la información referida. Consecuentemente, se efectúa el examen del impacto de los movimientos migratorios interprovinciales e internos de la ciudad que conllevan a poblar y a extender el tejido social del barrio y sus alcances en la transmisión del legado cultural en la escuela. Los resultados ponen en evidencia que el arbitrario cultural dominante, a través de sus propios cánones, no que lineal ni se apoderó totalmente de toda la escuela No. 91. Al tener un sentido de pertenencia e identificación suprema con el barrio, no habría reproducido totalmente y sin cuestionamientos el canon cultural dominante. Implícitamente y quizá espontáneamente, las prácticas reprodujeron el mandato del discurso del conjunto social, amalgamado con los aprendizajes socialmente significativos del legado de la comunidad. Por último, hacia fines de los noventa, la vida cotidiana barrial se torna altamente fragmentada e individualizada sin expectativas de configurar un proyecto común. Estas características también se observaron en la práctica docente: la pérdida en el tiempo, del sentido histórico, que ocasiona un resquebrajamiento en los vínculos sociales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis Doctoral aborda la aplicación de métodos meshless, o métodos sin malla, a problemas de autovalores, fundamentalmente vibraciones libres y pandeo. En particular, el estudio se centra en aspectos tales como los procedimientos para la resolución numérica del problema de autovalores con estos métodos, el coste computacional y la viabilidad de la utilización de matrices de masa o matrices de rigidez geométrica no consistentes. Además, se acomete en detalle el análisis del error, con el objetivo de determinar sus principales fuentes y obtener claves que permitan la aceleración de la convergencia. Aunque en la actualidad existe una amplia variedad de métodos meshless en apariencia independientes entre sí, se han analizado las diferentes relaciones entre ellos, deduciéndose que el método Element-Free Galerkin Method [Método Galerkin Sin Elementos] (EFGM) es representativo de un amplio grupo de los mismos. Por ello se ha empleado como referencia en este análisis. Muchas de las fuentes de error de un método sin malla provienen de su algoritmo de interpolación o aproximación. En el caso del EFGM ese algoritmo es conocido como Moving Least Squares [Mínimos Cuadrados Móviles] (MLS), caso particular del Generalized Moving Least Squares [Mínimos Cuadrados Móviles Generalizados] (GMLS). La formulación de estos algoritmos indica que la precisión de los mismos se basa en los siguientes factores: orden de la base polinómica p(x), características de la función de peso w(x) y forma y tamaño del soporte de definición de esa función. Se ha analizado la contribución individual de cada factor mediante su reducción a un único parámetro cuantificable, así como las interacciones entre ellos tanto en distribuciones regulares de nodos como en irregulares. El estudio se extiende a una serie de problemas estructurales uni y bidimensionales de referencia, y tiene en cuenta el error no sólo en el cálculo de autovalores (frecuencias propias o carga de pandeo, según el caso), sino también en términos de autovectores. This Doctoral Thesis deals with the application of meshless methods to eigenvalue problems, particularly free vibrations and buckling. The analysis is focused on aspects such as the numerical solving of the problem, computational cost and the feasibility of the use of non-consistent mass or geometric stiffness matrices. Furthermore, the analysis of the error is also considered, with the aim of identifying its main sources and obtaining the key factors that enable a faster convergence of a given problem. Although currently a wide variety of apparently independent meshless methods can be found in the literature, the relationships among them have been analyzed. The outcome of this assessment is that all those methods can be grouped in only a limited amount of categories, and that the Element-Free Galerkin Method (EFGM) is representative of the most important one. Therefore, the EFGM has been selected as a reference for the numerical analyses. Many of the error sources of a meshless method are contributed by its interpolation/approximation algorithm. In the EFGM, such algorithm is known as Moving Least Squares (MLS), a particular case of the Generalized Moving Least Squares (GMLS). The accuracy of the MLS is based on the following factors: order of the polynomial basis p(x), features of the weight function w(x), and shape and size of the support domain of this weight function. The individual contribution of each of these factors, along with the interactions among them, has been studied in both regular and irregular arrangement of nodes, by means of a reduction of each contribution to a one single quantifiable parameter. This assessment is applied to a range of both one- and two-dimensional benchmarking cases, and includes not only the error in terms of eigenvalues (natural frequencies or buckling load), but also of eigenvectors

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el campo de la Patología, es importante contar con referencias objetivas para establecer un diagnóstico preciso, y la normativa de construcción es, sin lugar a dudas, la mejor referencia, especialmente cuando la patología entra en el campo pericial. El CTE ha supuesto un cambio importante en el enfoque de la normativa española de la construcción, pues parte de un planteamiento “prestacional” que culmina provisionalmente el camino emprendido por las ISO 6240:1980 e ISO 6241:1984, la Directiva Europea de Productos de Construcción 89/106/CEE (en España RD 1630/1992), y su definitivo reconocimiento en la LOE de 1999. Este camino arranca en los tres aspectos básicos que debe cubrir cualquier edificio: funcionalidad, seguridad y habitabilidad, que se desarrollan progresivamente mediante requisitos, exigencias y prestaciones. El incumplimiento de estas configura los “fallos” que puede presentar un edificio, y siendo en éstos en los que radica la calificación y la justificación de los problemas patológicos, interesa poder identificarlos con la mayor precisión posible. Sin embargo, este recorrido, aunque conceptualmente claro, no es explícito en el CTE. Se presentan en esta comunicación algunas aclaraciones conceptuales del enfoque prestacional, útiles para la patología, y la forma de hacer una lectura “interesada” del CTE, destinada a la identificación de las prestaciones que el Código exige a la edificación para, mediante su transformación “negativa”, formular los posibles “fallos” del edificio. Se presentan, finalmente, la lista de fallos básicos y específicos que se deduce de la Parte I del CTE, y un ejemplo de los más específicos que contiene el DB HS1 relativos a la permeabilidad de la fachada al agua de precipitaciones atmosféricas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El ruido como fenómeno físico capaz de generar molestias y de impactar la salud es uno de los agentes perturbadores presentes en las comunidades del siglo XXI, principalmente en las grandes urbes donde existe concentración poblacional, tal es el caso de la ciudad de Barquisimeto, capital del estado Lara en Venezuela, la cual ocupa el cuarto lugar en importancia a nivel nacional según criterios de ubicación geopolítica, densidad poblacional, infraestructuras, actividades económicas y educativas. La presente tesis doctoral, cuya área de emplazamiento es el centro de dicha ciudad, consiste en una investigación científica experimental de carácter correlacional, en la que se estableció la siguiente hipótesis �a mayor tiempo de exposición al ruido, mayores efectos neurológicos y psicológicos en la población que ocupa el centro de Barquisimeto�. Su singularidad y relevancia radica en articular el estudio del ruido como agente físico con la incidencia de éste en la actividad bioeléctrica cerebral humana y sus efectos en las inteligencias múltiples, tomando como basamento la teoría de las inteligencias múltiples del Dr. Howard Gardner, catedrático de la Universidad de Hardvard, siendo un importante aporte científico en el campo de la física, la medicina y la psicología. Para alcanzar la cristalización de la presente investigación, se realizó una revisión del estado del arte sobre la temática abordada. Tras analizar las fuentes, tanto bibliográficas como digitales, se diseñó el desarrollo de la misma gestionándose la autorización de la Alcaldía del Municipio Iribarren, tomando en consideración que en la fase experimental se aplicaron instrumentos de recolección de datos y se realizaron mediciones en espacios públicos. La fase experimental se ejecutó en seis etapas, obedeciendo a las siguientes variables: a.) Percepción neurológica y psicológica (estudio subjetivo); b) Sonoridad; c.) Dosimetría; d.) Valoración neurológica; e) Valoración psicológica sobre las inteligencias múltiples; f) Mapa de conflicto acústico. En relación al estudio subjetivo se tomó una muestra recurriendo al muestreo aleatorio estratificado, quedando conformada por 67 Residentes, 64 Funcionarios Públicos, 66 comerciantes formales y 64 Comerciantes Informales para un total de 261 sujetos, a los que se viiiaplicó una encuesta titulada Cuestionario Ruambar, conteniendo 30 Ítemes sobre la percepción de efectos neurológicos y psicológicos del ruido, utilizando la escala de Lickert. Para la toma de datos de la sonoridad y de la dosimetría se utilizaron métodos científicos estandarizados, usándose las normas ISO 1996-1, ISO 1999, los Decretos Reales 1367/2007 y el 286/2006; y los criterios técnicos de la OMS. Para lograr una mayor precisión y confiabilidad de los datos, se evaluó el cálculo de la incertidumbre según el documento GUM �Guide for the expresión of uncertainly in Measurement de la International Organization for Standardization� para medidas de categoría A. [JCGM 100:2008]. En cuanto a la valoración neurológica, se siguió el protocolo de la Sociedad Americana de Neurología. En el estudio neurológico participaron voluntariamente 192 sujetos, utilizándose un electroencefalógrafo Digital Stellate Systems con 18 electrodos que determinó la actividad bioeléctrica de los sujetos, estando sometidos a una estimulación sonora de 1000 Hz y a presiones sonoras de 20, 40, 60, 80 y 100 dB (A). Con respecto a la valoración psicológica del efecto del ruido sobre las inteligencias múltiples se diseñó el Test RUAMIN con 24 ítemes y con adaptación a una escala psicométrica. Con respecto a la prueba de hipótesis las correlaciones obtenidas son lineales positivas exceptuando el estrato funcionarios, confirmándose que se acepta la hipótesis planteada para los estratos residentes, comerciantes formales y comerciantes informales, y siendo esta misma hipótesis nula para el estrato funcionarios. Finalmente, como resultado de la investigación se elaboró un mapa de conflicto acústico con el propósito de establecer los puntos de mayor impacto acústico en la zona de emplazamiento, estableciéndose comparaciones entre los mismos y pudiendo ser útil el mencionado mapa para la adopción de disposiciones legales y civiles en aras de mejorar la calidad de vida de los ciudadanos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este estudio fue la validación de modelos estadísticos empleados para evaluar la pérdida de resistencia de tableros derivados de la madera, de forma no destructiva, con el paso del tiempo. Dos tableros de partículas y dos de fibras de fábricas distribuidas por la Península Ibérica fueron analizados, tras haber sido sometidos a tres ciclos de envejecimiento físico acelerado, mediante tres métodos no destructivos: penetrómetro, ultrasonido y método de arranque de tornillos. Basándonos en los resultados obtenidos pudimos concluir que todos los modelos funcionaron bien, aportando correcciones en algunos casos. Se realizó a su vez un cuarto ensayo de ondas inducidas, para el cual desarrollamos un modelo propio que no existía con anterioridad y por último, analizamos su calidad superficial en la Oklahoma State University (EE.UU.) mediante un rugosímetro, concluyendo que este equipo pudo ser empleado con precisión en el experimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La superficie foliar total del viñedo LAI (m2/m2) es un indicador de la potencialidad general, su medición en el viñedo es muy laboriosa, pues si se quiere con precisión hay que recurrir a medidores de superficie portátiles o recurrir a métodos destructivos que requieren tomar muestras muy grandes de hojas y medir en laboratorio, en otros casos hay cierto equipamiento más o menos sofisticado que da buenas aproximaciones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El uso de materiales compuestos para el refuerzo, reparación y rehabilitación de estructuras de hormigón se ha convertido en una técnica muy utilizada en la última década. Con independencia de la técnica del refuerzo, uno de los principales condicionantes del diseño es el fallo de la adherencia entre el hormigón y el material compuesto, atribuida generalmente a las tensiones en la interfaz de estos materiales. Las propiedades mecánicas del hormigón y de los materiales compuestos son muy distintas. Los materiales compuestos comúnmente utilizados en ingeniería civil poseen alta resistencia a tracción y tienen un comportamiento elástico y lineal hasta la rotura, lo cual, en contraste con el ampliamente conocido comportamiento del hormigón, genera una clara incompatibilidad para soportar esfuerzos de forma conjunta. Esta incompatibilidad conduce a fallos relacionados con el despegue del material compuesto del sustrato de hormigón. En vigas de hormigón reforzadas a flexión o a cortante, el despegue del material compuesto es un fenómeno que frecuentemente condiciona la capacidad portante del elemento. Existen dos zonas potenciales de iniciación del despegue: los extremos y la zona entre fisuras de flexión o de flexión-cortante. En el primer caso, la experiencia a través de los últimos años ha demostrado que se puede evitar prolongando el refuerzo hasta los apoyos o mediante el empleo de algún sistema de anclaje. Sin embargo, las recomendaciones para evitar el segundo caso de despegue aún se encuentran lejos de poder prever el fallo de forma eficiente. La necesidad de medir la adherencia experimentalmente de materiales FRP adheridos al hormigón ha dado lugar a desarrollar diversos métodos por la comunidad de investigadores. De estas campañas experimentales surgieron modelos para el pronóstico de la resistencia de adherencia, longitud efectiva y relación tensión-deslizamiento. En la presente tesis se propone un ensayo de beam-test, similar al utilizado para medir la adherencia de barras de acero, para determinar las características de adherencia del FRP al variar la resistencia del hormigón y el espesor del adhesivo. A la vista de los resultados, se considera que este ensayo puede ser utilizado para investigar diferentes tipos de adhesivos y otros métodos de aplicación, dado que representa con mayor realidad el comportamiento en vigas reforzadas. Los resultados experimentales se trasladan a la comprobación del fallo por despegue en la región de fisuras de flexión o flexión cortante en vigas de hormigón presentando buena concordancia. Los resultados condujeron a la propuesta de que la limitación de la deformación constituye una alternativa simple y eficiente para prever el citado modo de fallo. Con base en las vigas analizadas, se propone una nueva expresión para el cálculo de la limitación de la deformación del laminado y se lleva a cabo una comparación entre los modelos existentes mediante un análisis estadístico para evaluar su precisión. Abstract The use of composite materials for strengthening, repairing or rehabilitating concrete structures has become more and more popular in the last ten years. Irrespective of the type of strengthening used, design is conditioned, among others, by concrete-composite bond failure, normally attributed to stresses at the interface between these two materials. The mechanical properties of concrete and composite materials are very different. Composite materials commonly used in civil engineering possess high tensile strength (both static and long term) and they are linear elastic to failure, which, in contrast to the widely known behavior of concrete, there is a clear incompatibility which leads to bond-related failures. Bond failure in the composite material in bending- or shear-strengthened beams often controls bearing capacity of the strengthened member. Debonding failure of RC beams strengthened in bending by externally-bonded composite laminates takes place either, at the end (plate end debonding) or at flexure or flexure-shear cracks (intermediate crack debonding). In the first case, the experience over the past years has shown that this can be avoided by extending laminates up to the supports or by using an anchoring system. However, recommendations for the second case are still considered far from predicting failure efficiently. The need to experimentally measure FRP bonding to concrete has induced the scientific community to develop test methods for that purpose. Experimental campaigns, in turn, have given rise to models for predicting bond strength, effective length and the stress-slip relationship. The beam-type test proposed and used in this thesis to determine the bonding characteristics of FRP at varying concrete strengths and adhesive thicknesses was similar to the test used for measuring steel reinforcement to concrete bonding conditions. In light of the findings, this test was deemed to be usable to study different types of adhesives and application methods, since it reflects the behavior of FRP in strengthened beams more accurately than the procedures presently in place. Experimental results are transferred to the verification of peeling-off at flexure or flexure-shear cracks, presenting a good general agreement. Findings led to the conclusion that the strain limitation of laminate produces accurate predictions of intermediate crack debonding. A new model for strain limitation is proposed. Finally, a comprehensive evaluation based on a statistical analysis among existing models is carried out in order to assess their accuracy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los nudos son los defectos que más disminuyen la resistencia de piezas de madera en la escala estructural, al ocasionar no solo una discontinuidad material, sino también la desviación de las fibras que se encuentran a su alrededor. En la década de los 80 se introdujo la teoría de la analogía fluido-fibra, como un método que aproximaba adecuadamente todas estas desviaciones. Sin embargo en su aplicación tridimensional, nunca se consideraron las diferencias geométricas en el sentido perpendicular al eje longitudinal de las piezas estructurales, lo cual imposibilitaba la simulación numérica de algunos de los principales tipos de nudos, y disminuía la precisión obtenida en aquellos nudos en los que la modelización sí era viable. En este trabajo se propone un modelo programado en lenguaje paramétrico de un software de elementos finitos que, bajo una formulación en tres dimensiones más general, permitirá estudiar de forma automatizada el comportamiento estructural de la madera bajo la influencia de los principales tipos de nudos, a partir de la geometría visible de los mismos y la posición de la médula en la pieza, y el cual ha sido contrastado experimentalmente, simulando de forma muy precisa el comportamiento mecánico de vigas sometidas a ensayos de flexión a cuatro puntos. Knots are the defects that most reduce the strength of lumber at the structural level, by causing not only a material discontinuity but also the deviation of the fibers that surround them. In the 80's it was introduced the theory of the flow-grain analogy as a method to approximating adequately these deviations. However, in three-dimensional applications, geometrical differences in the direction perpendicular to the longitudinal axis of the structural specimens were never considered before, which prevented the numerical simulation of some of the main types of knots, and decreased the achieved precision in those kind of knots where modeling itself was possible. This paper purposes a parametric model programmed in a finite element software, in the way that with a more general three-dimensional formulation, an automated study of the structural behavior of timber under the influence of the main types of knots is allowed by only knowing the visible geometry of such defects, and the position of the pith. Furthermore that has been confirmed experimentally obtaining very accurately simulations of the mechanical behavior of beams under four points bending test.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ste trabajo presenta un análisis comparativo entre tres algoritmos de aprendizaje diferentes basados en Árboles de Decisión (C4.5) y Redes Neuronales Artificiales (Perceptrón Multicapa MLP y Red Neuronal de Regresión General GRNN) que han sido implementados con el objetivo de predecir los resultados de la rehabilitación cognitiva de personas con daño cerebral adquirido. En el análisis se han incluido datos demográficos del paciente, el perfil de afectación y los resultados provenientes de las tareas de rehabilitación ejecutadas por los pacientes. Los modelos han sido evaluados utilizando la base de datos del Institut Guttmann. El rendimiento de los algoritmos se midió a través del análisis de la especificidad, sensibilidad y exactitud en la precisión y el análisis de la matriz de confusión. Los resultados muestran que la implementación del C4.5 alcanzó una especificidad, sensibilidad y exactitud en la precisión del 98.43%, 83.77% y 89.42% respectivamente. El rendimiento del C4.5 fue significativamente superior al obtenido por el Perceptrón Multicapa y la Red de Regresión General.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este artículo se evalúan diferentes técnicas para la generación automática de reglas que se emplean en un método híbrido de categorización automática de texto. Este método combina un algoritmo de aprendizaje computacional con diferentes sistemas basados en reglas en cascada empleados para el filtrado y reordenación de los resultados proporcionados por dicho modelo base. Aquí se describe una implementación realizada mediante el algoritmo kNN y un lenguaje básico de reglas basado en listas de términos que aparecen en el texto a clasificar. Para la evaluación se utiliza el corpus de noticias Reuters-21578. Los resultados demuestran que los métodos de generación de reglas propuestos producen resultados muy próximos a los obtenidos con la aplicación de reglas generadas manualmente y que el sistema híbrido propuesto obtiene una precisión y cobertura comparables a la de los mejores métodos del estado del arte.