955 resultados para Ecuaciones Korteweg-De Vries
Campo Acústico en Recintos de Planta en I En L y en U. Aplicación al Diseño Acústico en Restauración
Resumo:
Este trabajo aborda el estudio de la calidad acústica de restaurantes y propone la inteligibilidad como magnitud adecuada para su valoración. La conversación en el entorno de cada mesa se considera como señal de interés para quienes la ocupan, mientras que las conversaciones de los comensales de las restantes mesas se consideran ruido perturbador junto con el procedente de otras fuentes interiores o exteriores, ruido este que por otra parte suele estar limitado por ordenanzas o reglamentaciones ad hoc, a niveles muy por debajo del nivel de conversación medio y se suele tratar como un ruido estacionario homogéneamente distribuido en todo el restaurante. Las condiciones de inteligibilidad en cada mesa del restaurante deben ser equivalentes. La relación señal-ruido juega un papel primordial en todos los modelos objetivos de predicción de la inteligibilidad en recintos comúnmente aceptados en la actualidad. La calificación de la inteligibilidad de un recinto de restauración requiere un mapa de inteligibilidad en una retícula suficientemente fina que cubra la zona de público, en cuyos puntos se necesita calcular los niveles de señal y de ruido, así como el tiempo de reverberación u otro parámetro relacionado con la señal recibida en el tiempo de integración auditiva. Esto conlleva una cantidad ingente de potencia computacional tanto en memoria como en tiempo. Si se dispone de ecuaciones sencillas y fiables de distribución del nivel sonoro en función de la distancia a la fuente sonora los enormes requerimientos de cálculo mencionados podrían reducirse en un factor importante. La teoría estadística clásica de recintos presenta justamente este escenario, pero trabajos relativamente recientes de Barron y colaboradores indican la mejor adecuación de ecuaciones empíricas algo más complejas, dentro de la sencillez, las cuales a su vez han sido cuestionadas en parte por otros autores. La importancia de estas ecuaciones ha condicionado que en esta tesis se haya planeado un programa de exploraciones experimentales ambicioso, a la par que lo mas simplificado posible, para obtener distribuciones de campos sonoros en recintos prismáticos de plantas en forma de I, L y U; en donde se exploran trayectorias axiales y diagonales. En paralelo se exploro el tiempo de reverberación y se completo con estudios análogos en recintos acoplados formados a partir del recinto de planta en U, por su utilidad actual en recintos de interés arquitectónico rehabilitados para restaurantes. Por su facilidad operativa la experimentación se planteo en maquetas a escala reducida asegurando el cumplimiento de los requisitos en este tipo de estudios. Los resultados experimentales directos se corrigieron de los efectos alineales derivados de las descargas eléctricas usadas como señales de excitación, tanto en el tiempo de reverberación como en la distribución de niveles. Con este fin se desarrollaron ecuaciones de corrección de ambas magnitudes en función del parámetro de alinealidad en el rango de débil alinealidad. También se aplicaron correcciones del exceso de absorción sonora en el seno del aire a los valores de humedad relativa, temperatura y presión atmosféricas reinantes en el interior de las maquetas durante la experimentación, para las frecuencias transpuestas por el factor de escala, en relación con la escala real. Como resultado se obtuvo un paquete de archivos de datos experimentales correspondientes a condiciones lineales. Se ha mostrado que una generalización de la ecuación de Barron consigue un buen ajuste a los valores experimentales en todos los casos considerados, lo que apoya el gran fundamento de esta ecuación tipo. El conjunto de ecuaciones empíricas que ajusta cada caso particular solamente difiere en el valor de una de las tres constantes del tipo funcional: el factor ligado al término exponencial. Un valor de esta constante cercano al valor medio de la serie de casos estudiados se ha usado en el cálculo de los mapas de inteligibilidad en recintos prismáticos que se comentaran más adelante Los resultados experimentales del nivel sonoro a lo largo de trayectorias axiales y diagonales comparados a los calculados numéricamente con las ecuaciones empíricas presentan disminuciones justamente detrás de las esquinas de los recintos con plantas en forma de L y de U. Las aéreas de estas zonas afónicas son función de la frecuencia de manera bastante coincidente con las encontradas en las barreras de ruido por efecto de la difracción. A distancias superiores los valores experimentales caen de nuevo sobre las curvas empíricas. Se ha estudiado la influencia en los mapas de inteligibilidad del ruido de fondo, de la absorción sonora, de la distribución de las mesas, de la densidad de mesas por unidad de superficie, del porcentaje de ocupación y su distribución espacial así como de la posición de la mesa de señal. El ruido conversacional resulta ser el factor más adverso a la inteligibilidad. Al aumentar la densidad de mesas (ocupadas) la valoración de la inteligibilidad disminuye e inversamente. La influencia negativa de las mesas de ruido conversacional disminuye rápidamente al aumentar la distancia a la mesa de señal: pudiendo afirmarse que las 4 a 8 mesas mas próximas a la de señal, junto con la absorción total del recinto, constituyen los dos factores que condicionan la inteligibilidad influyendo negativamente el primero y positivamente el segundo. Este resultado difiere del ofrecido por la teoría geométrico estadística clásica donde todas las mesas tienen la misma influencia con independencia del sitio que ocupen en el recinto, y también con la teoría derivada de la ecuación de Barron, que ocupa una posición intermedia. Mayor absorción y menor densidad de mesas (ocupadas) mejoran la inteligibilidad en todos los casos pero la absorción no siempre puede neutralizar el efecto adverso de la densidad de mesas de la cual parece existir un valor frontera imposible de neutralizar en la práctica con incrementos de absorción. El grado de inteligibilidad en torno a la mesa de señal es poco sensible a la posición de esta dentro del recinto, resultado que simplifica el enunciado de criterios de calidad acústica de utilidad práctica tanto en diseño como en reglamentaciones de control. La influencia del ruido de fondo estacionario y homogéneo resulta de escasa o nula influencia en la inteligibilidad para niveles de hasta 50-55 dB, si se admite que los niveles normales de conversación se sitúan de 65 a 70 dB. La subdivisión del restaurante en subespacios menores mediante septa de separación parcial media y alta, presenta ventajas ya que dentro de cada subespacio la inteligibilidad no depende más que de las características de este
Resumo:
Se presentan resultados obtenidos mediante la aplicación del MétododePartículasyElementosFinitos (PFEM) en la simulación dedeslizamientosdeladeraenembalses. Es un fenómeno complejo, por la interacción entre el material deslizado, la masa de agua del embalse, yel conjunto formado por el vaso y la presa. PFEM es un esquema numérico original con el que se ha afrontado con éxito la resolución de problemas de interacción fluido-estructura. Combina un enfoque Lagrangiano con la resolución de las ecuaciones deelementosfinitosmediante la generación de una malla, que se actualiza en cada paso de tiempo. Se presentan resultados de casos de validación en los que se han reproducido ensayos en laboratorio existentes en la bibliografía técnica. Se muestran también otros cálculos más complejos, sobre la cartografía a escala real de un embalse, donde se aprecia el fenómeno de generación de la ola, su propagación por el embalse y la afección a la presa. Por último, se ha modelado el deslizamiento ocurrido en 1958 en la bahía de Lituya (Alaska), enel que la caída de 90 millones de toneladas de roca produjo una ola que alcanzó una sobreelevación máxima de 524 m en la ladera opuesta. Los resultados permiten afirmar que PFEM puede ser una herramienta útil enel análisis de riesgos frente a este tipo de fenómenos, ofreciendo una buena aproximación de las afecciones potenciales
Resumo:
Durante los últimos años la física atómica ha vuelto a cobrar un papel fundamental en los planes de investigación, entre los que destacan aquellos dedicados al estudio teórico y experimental de la fusión nuclear. Concretamente, en el concepto de fusión por confinamiento inercial se pueden distinguir cuatro grandes áreas donde es básico el conocimiento de las propiedades atómicas de la materia. Estas son: 1. Modelado de la interacción entre haces de partículas o láser con la cápsula combustible 2. Simulación de blancos de irradiación indirecta mediante conversión a rayos X 3. Diagnosis de experimentos 4. Láseres de rayos X La modelación de los plasmas en fusión depende principalmente de la densidad electrónica. En fusión por confinamiento magnético (tokamaks), los plasmas tienen densidades bajas, por lo que, en general, es suficiente considerar un modelo corona, en el que la mayoría de los iones se encuentran en su estado fundamental o con un número pequeño de estados excitados, estableciéndose sus poblaciones mediante un balance entre la ionización colisional/recombinación radiativa y excitación/decaimiento espontáneo. Sin embargo, los plasmas característicos de la fusión por confinamiento inercial tienen densidades más altas, aunque, normalmente, no lo suficientes como para poder establecer condiciones de equilibrio local termodinámico (balance entre procesos colisionales). Estas densidades, que se podrían clasificar como intermedias, se caracterizan por la aparición de un mayor número de estados excitados por ión y por la importancia tanto de los procesos colisionales como radiativos. Además de lo expuesto anteriormente, en ciertos regímenes de plasma, las variables termodinámicas locales, fundamentalmente presión (densidad) y temperatura, varían fuertemente con el tiempo, de manera que cuando los tiempos característicos de esta variación son menores que los propios de relajación de los procesos atómicos, el sistema no puede tratarse en estado estacionario, siendo necesario resolver las ecuaciones de balance con dependencia temporal. Estas ecuaciones de tasa o de balance contienen una serie de términos que representan los distintos procesos mediante una serie de coeficientes cuyas expresiones dependen de las condiciones del plasma, por lo que el problema es fuertemente no lineal. Por otra parte, hay que añadir que si el medio es ópticamente grueso a la radiación, en las ecuaciones de tasa aparecen términos radiativos que incluyen el campo de radiación, por lo que es necesario resolver la ecuación de transferencia en cada línea o bien, utilizar otras aproximaciones, que sin resolver dicha ecuación, permitan tener en cuenta el campo de radiación en la línea. Por todo ello, el objetivo de esta Tesis se centra en el desarrollo de un modelo original para el cálculo de la distribución de los estados de ionización en un plasma de fusión por confinamiento inercial en condiciones de no-equilibrio termodinámico local, caracterizado por: 1. Resolución de las ecuaciones de balance en estado estacionario y con dependencia temporal, considerando a las distintas especies iónicas tanto en su estado fundamental como en posibles estados excitados. 2. Elección de especies iónicas y número de estados excitados en función de las condiciones de densidad y temperatura del plasma. En el caso de una evolución temporal el número de estados excitados y su distribución se adecúan en cada caso a las condiciones del plasma. 3. Tratamiento de medios ópticamente finos y gruesos, utilizándose para estos últimos una evaluación aproximada del campo de radiación en la línea. 4. Capacidad de acoplamiento a un modelo hidrodinámico a través de la temperatura electrónica, densidad y campo de radiación. Entre todas estas características, se debe hacer constar que las principales aportaciones originales se refieren, en primer lugar, a la forma original de resolver las ecuaciones de tasa con dependencia temporal, ya que se tiene en cuenta la evolución de todos los estados: fundamentales y excitados, frente a la hipótesis habitual de resolver las ecuaciones temporales sólo de los estados fundamentales, y suponer los excitados en estado estacionario, es decir, que siguen el comportamiento de su correspondiente fundamental. En segundo lugar, la elección del número de estados excitados por cada funda- X mental, que se realiza mediante un cálculo inicial donde se considera todos los iones del plasma en estado fundamental, para en función de las densidades de población obtenidas, elegir los estados fundamentales y sus correspondientes excitados que se deben considerar. Y por último, señalar que en el tratamiento de medios ópticamente gruesos se ha conseguido obtener una evaluación de la radiación absorbida por el plasma, independientemente de la geometría del mismo, sin necesidad de resolver la ecuación de transferencia en la línea, y sin acudir a otros métodos, que sin resolver dicha ecuación, necesitan la definición de una geometría para el plasma, por ejemplo, factores de escape. El modelo ha sido comparado y contrastado tanto con resultados teóricos como experimentales, observando unos resultados muy aceptables, de lo cual se deduce que el modelo es capaz de suministrar la evaluación de los parámetros atómicos en este tipo de plasmas. A partir de esta Tesis, el modelo se puede potenciar, a través de varias líneas de investigación que se han identificado: 1. Tratamiento de medios ópticamente gruesos con resolución de la ecuación de transferencia en las líneas. 2. Evaluación detallada de las secciones eficaces de los distintos procesos que tienen lugar en plasmas, y que aparecen en las ecuaciones de balance a través de los coeficientes de tasa.
Resumo:
La prospectiva, es un conjunto de análisis con el fin de explorar o predecir el futuro; “se puede concebir como una realización múltiple” (Jouvenel, 1968) y “depende de la acción del hombre” (Godet, 2004); por esa razón, el hombre puede construir el futuro mejor, para lo cual debe tomar las decisiones correctas en el momento apropiado. En ordenamiento territorial, la prospectiva, constituye una fase intermedia, entre el diagnóstico y la propuesta, y se refiere a la predicción del futuro, mediante dos vías: la proyección de la tendencia y la construcción de escenarios o imágenes futuras; se denomina escenario, a la descripción de una situación territorial futura y el encadenamiento coherente de sucesos que, partiendo de la situación actual, llega a la futura (Gómez Orea, 2008); pueden identificarse múltiples escenarios por la combinación de variables; no obstante, esta tesis se centra en el diseño de tres: el tendencial, el óptimo por analogías con otros territorios a los que se desee aspirar, y uno intermedio entre los anteriores, que parte del consenso de la mayoría de voluntades políticas y ciudadanas. Existen escasas experiencias metodológicas, y en especial, aplicables a los planes de ordenamiento territorial de Centroamérica. En la mayoría de casos estudiados, se identifica la participación como herramienta básica en el diseño de los escenarios; un modelo exclusivamente técnico está abocado al fracaso. En la tesis se diseña una metodología para elaborar la fase de prospectiva en los planes de ordenamiento territorial de Centroamérica; se entiende como un metamodelo, es decir, un "modelo general formado por submodelos específicos"; además del modelo general, se diseñan los submodelos: demográfico, ambiental, poblamiento y económico; para la elaboración de los mismos se usan herramientas; algunas han sido definidas por investigadores y otras se diseñan en este trabajo. Se establece un orden de prelación para el desarrollo de los submodelos; no se recomienda la alteración del mismo, pues el resultado será distinto y erróneo. Se inicia con el submodelo demográfico; se analizan cuatro variables: población total, población distribuida en municipios, población urbana y rural, y población por edades y sexos. Se propone que el cálculo de la población total se determine por métodos clásicos, tasas de crecimiento o cohortes. Posteriormente se realiza la distribución en municipios, urbana‐rural y en los asentamientos; en el escenario tendencial se proyecta por cohortes o tasas de crecimiento, y en el óptimo e intermedio, se considera un análisis de los limitantes al desarrollo urbano, priorizando la distribución de unos municipios y núcleos con respecto a otros. Con la proyección demográfica se desarrolla el submodelo ambiental; se consideran las variables: usos del suelo, unidades ambientales con los usos del suelo predominantes, áreas naturales protegidas, y áreas de amenazas naturales; estas últimas son sumamente importantes en el territorio centroamericano, dada la vulnerabilidad existente; para la proyección de los usos del suelo predominantes se diseña una herramienta donde se establecen los usos del suelo según unidades ambientales en diferentes escenarios, aplicando imágenes multitemporales y la capacidad de acogida del territorio. Una vez definidos los anteriores, se proyecta el submodelo de poblamiento; se proponen: el tamaño, la clasificación, la superficie, la diferenciación y agrupación de los asentamientos; se define el sistema de asentamientos a partir de las variables demográficas y ambientales; para ello se aplica un análisis multivariable‐multicriterio donde se establece la jerarquía de los núcleos de población, y posteriormente se establece la superficie que ocuparan y su forma. A continuación, se propone la prospectiva del submodelo económico, en cuanto a las variables: población económicamente activa (PEA), producción, empleo, desglose por sectores económicos, y la zonificación de suelos de desarrollo económico; luego se añade la prospectiva del submodelo de infraestructuras. Finalmente, se procede a la representación cartográfica, mediante el uso de herramientas SIG (Sistemas de Información Geográfica); para la representación de los escenarios se diseñan mapas, que sean fácilmente comprensibles por los líderes políticos, actores socioeconómicos y por la ciudadanía ("clientes" finales del plan). La metodología de investigación se ha basado en ciclos repetitivos de observación de la realidad en trabajos profesionales, elaboración del modelo y submodelos y verificación posterior mediante su aplicación a casos reales. En consecuencia los submodelos anteriores se han ido desarrollando y verificando en la elaboración de numerosos planes en Centroamérica, de los cuales en la tesis se exponen los dos más expresivos: El Plan de Desarrollo Territorial de la Región de San Miguel, en El Salvador y El Plan de Ordenamiento Territorial de la Región del Valle del Lean, Honduras. El modelo no es aplicable íntegramente a otros territorios; se ha diseñado considerando las características centroamericanas: fuerte crecimiento poblacional, tenencia de la tierra, crecimiento lineal en las principales carreteras, cultivos de autoconsumo (granos básicos) en laderas y montañas, vulnerabilidad ante las amenazas naturales, bajo nivel de tecnificación, entre otras. El modelo posibilita realizar análisis de sensibilidad y el diseño de múltiples escenarios por combinación de variables, dado que se plantean ecuaciones y algoritmos que usan diferentes hipótesis; las limitantes son el tiempo y la disponibilidad de recursos, algo escaso en la redacción de los planes de ordenamiento territorial. Finalmente, la tesis constituye una aportación a los planificadores; espero que ello contribuya a profundizar en este interesante campo de actividad.
Resumo:
A new method is presented to generate reduced order models (ROMs) in Fluid Dynamics problems of industrial interest. The method is based on the expansion of the flow variables in a Proper Orthogonal Decomposition (POD) basis, calculated from a limited number of snapshots, which are obtained via Computational Fluid Dynamics (CFD). Then, the POD-mode amplitudes are calculated as minimizers of a properly defined overall residual of the equations and boundary conditions. The method includes various ingredients that are new in this field. The residual can be calculated using only a limited number of points in the flow field, which can be scattered either all over the whole computational domain or over a smaller projection window. The resulting ROM is both computationally efficient(reconstructed flow fields require, in cases that do not present shock waves, less than 1 % of the time needed to compute a full CFD solution) and flexible(the projection window can avoid regions of large localized CFD errors).Also, for problems related with aerodynamics, POD modes are obtained from a set of snapshots calculated by a CFD method based on the compressible Navier Stokes equations and a turbulence model (which further more includes some unphysical stabilizing terms that are included for purely numerical reasons), but projection onto the POD manifold is made using the inviscid Euler equations, which makes the method independent of the CFD scheme. In addition, shock waves are treated specifically in the POD description, to avoid the need of using a too large number of snapshots. Various definitions of the residual are also discussed, along with the number and distribution of snapshots, the number of retained modes, and the effect of CFD errors. The method is checked and discussed on several test problems that describe (i) heat transfer in the recirculation region downstream of a backwards facing step, (ii) the flow past a two-dimensional airfoil in both the subsonic and transonic regimes, and (iii) the flow past a three-dimensional horizontal tail plane. The method is both efficient and numerically robust in the sense that the computational effort is quite small compared to CFD and results are both reasonably accurate and largely insensitive to the definition of the residual, to CFD errors, and to the CFD method itself, which may contain artificial stabilizing terms. Thus, the method is amenable for practical engineering applications. Resumen Se presenta un nuevo método para generar modelos de orden reducido (ROMs) aplicado a problemas fluidodinámicos de interés industrial. El nuevo método se basa en la expansión de las variables fluidas en una base POD, calculada a partir de un cierto número de snapshots, los cuales se han obtenido gracias a simulaciones numéricas (CFD). A continuación, las amplitudes de los modos POD se calculan minimizando un residual global adecuadamente definido que combina las ecuaciones y las condiciones de contorno. El método incluye varios ingredientes que son nuevos en este campo de estudio. El residual puede calcularse utilizando únicamente un número limitado de puntos del campo fluido. Estos puntos puede encontrarse dispersos a lo largo del dominio computacional completo o sobre una ventana de proyección. El modelo ROM obtenido es tanto computacionalmente eficiente (en aquellos casos que no presentan ondas de choque reconstruir los campos fluidos requiere menos del 1% del tiempo necesario para calcular una solución CFD) como flexible (la ventana de proyección puede escogerse de forma que evite contener regiones con errores en la solución CFD localizados y grandes). Además, en problemas aerodinámicos, los modos POD se obtienen de un conjunto de snapshots calculados utilizando un código CFD basado en la versión compresible de las ecuaciones de Navier Stokes y un modelo de turbulencia (el cual puede incluir algunos términos estabilizadores sin sentido físico que se añaden por razones puramente numéricas), aunque la proyección en la variedad POD se hace utilizando las ecuaciones de Euler, lo que hace al método independiente del esquema utilizado en el código CFD. Además, las ondas de choque se tratan específicamente en la descripción POD para evitar la necesidad de utilizar un número demasiado grande de snapshots. Varias definiciones del residual se discuten, así como el número y distribución de los snapshots,el número de modos retenidos y el efecto de los errores debidos al CFD. El método se comprueba y discute para varios problemas de evaluación que describen (i) la transferencia de calor en la región de recirculación aguas abajo de un escalón, (ii) el flujo alrededor de un perfil bidimensional en regímenes subsónico y transónico y (iii) el flujo alrededor de un estabilizador horizontal tridimensional. El método es tanto eficiente como numéricamente robusto en el sentido de que el esfuerzo computacional es muy pequeño comparado con el requerido por el CFD y los resultados son razonablemente precisos y muy insensibles a la definición del residual, los errores debidos al CFD y al método CFD en sí mismo, el cual puede contener términos estabilizadores artificiales. Por lo tanto, el método puede utilizarse en aplicaciones prácticas de ingeniería.
Resumo:
La gestión del conocimiento y el capital intelectual son conceptos complejos de difícil implantación en las organizaciones y desde nuestra perspectiva, sólo es posible entenderlos desde un punto de vista socio-técnico, es decir, donde el componente humano establece una relación de sinergia con elementos tecnológicos y culturales para ampliar sus capacidades. El modelo exploratorio propuesto está basado en una relación causa-efecto, como resultado de la vinculación entre las TI/SI, la cultura y el capital humano con la gestión del conocimiento organizacional, en el marco de un modelo de madurez. La investigación fue desarrollada sobre un grupo de pymes latinoamericanas del sector industrial y manufacturero. Se usaron ecuaciones estructuradas (PLS) como herramientas de análisis estadístico. Estructuralmente se pudo demostrar la validez del modelo, quedando comprobada su fiabilidad, consistencia, estabilidad, calidad y poder de predicción. Mientras que funcionalmente, éste sirvió como apoyo para demostrar que las Pymes aun no han encontrado el equilibrio que les permita aprovechar eficientemente la tecnología instalada y la capacidad de su recurso humano para explotar su capital intelectual. Su desempeño sigue basado fundamentalmente en su cultura organizacional.
Resumo:
Metodología para integrar numéricamente de forma termodinámicamente consistente las ecuaciones del problema termomecánico acoplado de un elemento discreto viscoso.
Resumo:
El objetivo de este trabajo fue determinar y validar con datos independientes las ecuaciones de predicción obtenidas para estimar in vivo la composición corporal de conejos en crecimiento utilizando la técnica de impedancia bioeléctrica (BIA). Las ecuaciones se calcularon mediante un análisis de regresión múltiple a partir de las medidas de impedancia presentadas en el trabajo anterior (Saiz et al., 2011) y de otras variables independientes que fueron incluidas en el modelo, tras hacer un análisis de selección de variables, como la edad, el peso y la longitud del animal. Los coeficientes de determinación (R2) de las ecuaciones para estimar la humedad (g), la proteína (g), la grasa (g), las cenizas (g) y la energía (MJ) fueron: 0,99, 0,99, 0,97, 0,98 y 0,99, y los errores medios de predicción relativos (EMPR): 2,24, 5,99, 16,3, 8,56 y 7,81%, respectivamente. El R2 y EMPR para estimar el porcentaje de humedad corporal fueron de 0,85 y 1,98%, respectivamente. Para predecir los contenidos, expresados sobre materia seca (MS), de proteína (%), grasa (%), cenizas (%) y energía (kJ/100g), el R2 obtenido fue 0,79, 0,83, 0,71 y 0,86, respectivamente y el EMPR 4,78, 12,2, 8,39 y 3,26%, respectivamente. La reactancia estuvo negativamente correlacionada con el contenido en humedad, cenizas y proteína bruta (r=-0,32, Pmenor que0,0001; r=-0,20, Pmenor que0,05; r=-0,26, Pmenor que0,01) pero positivamente con el de grasa y energía (r=0,23 y r=0,24; Pmenor que0,01). Al contrario ocurrió con la resistencia, que estuvo positivamente correlacionada con el contenido en humedad, cenizas y proteína bruta (r=0,31, Pmenor que0,001; r=0,28, Pmenor que0,001; r=0,37, Pmenor que0,0001) pero negativamente con el de grasa y energía (r=-0,36 y r=-0,35; Pmenor que0,0001). Así mismo, la edad del animal, estuvo negativamente correlacionada con el contenido en humedad, proteína y cenizas (r=-0,79, r=-0,67 y r=-0,80; Pmenor que0,0001) y positivamente con la grasa y energía (r=0,78 y r=0,81; Pmenor que0,0001). Se puede considerar la técnica BIA como una técnica útil para estimar in vivo la composición corporal de los conejos en crecimiento de 25 a 77 días de edad.
Resumo:
Las empresas explotadoras de yacimientos de petróleo y geotérmicos diseñan y construyen sus instalaciones optimizándolas según dos características especialmente representativas: su temperatura y su presión. Por ello, tener información precisa sobre ambos aspectos lo antes posible puede permitir ahorros importantes en las inversiones en infraestructuras y también acortar los plazos de comienzo de explotación; ambos, aspectos esenciales en la rentabilidad del yacimiento. La temperatura estática de una formación es la temperatura existente antes del inicio de las tareas de perforación del yacimiento. Las operaciones de perforación tienen como objetivo perforar, evaluar y terminar un pozo para que produzca de una forma rentable. Durante estas tareas se perturba térmicamente la formación debido a la duración de la perforación, la circulación de fluidos de refrigeración, la diferencia de temperaturas entre la formación y el fluido que perfora, el radio, la difusividad térmica de las formaciones y la tecnología de perforación [7]. La principal herramienta para determinar la temperatura estática de formación son las medidas de temperaturas en los pozos. Estas medidas de temperatura se realizan una vez cesados los trabajos de perforación y circulación de fluidos. El conjunto de medidas de temperatura obtenidas es una serie de valores ascendentes, pero no llega a alcanzar el valor de la temperatura estática de la formación. Para estimar esta temperatura se plantean las ecuaciones diferenciales que describen los fenómenos de transmisión de calor en el yacimiento [14]. Estos métodos se emplean tanto en yacimientos geotérmicos como en yacimientos de petróleo indistintamente [16]. Cada uno de ellos modela el problema de transmisión de calor asociado de una forma distinta, con hipótesis simplificadoras distintas. Se ha comprobado que la aplicación de los distintos métodos a un yacimiento en concreto presenta discrepancias en cuanto a los resultados obtenidos [2,16]. En muchos de los yacimientos no se dispone de información sobre los datos necesarios para aplicar el método de estimación. Esto obliga a adoptar una serie de hipótesis que comprometen la precisión final del método utilizado. Además, puede ocurrir que el método elegido no sea el que mejor reproduce el comportamiento del yacimiento. En el presente trabajo se han analizado los distintos métodos de cálculo. De la gran variedad de métodos existentes [9] se han seleccionado los cuatro más representativos [2,7]: Horner (HM), flujo radial y esférico (SRM), de las dos medidas (TLM) y de fuente de calor cilíndrica (CSM). Estos métodos se han aplicado a una serie de yacimientos de los cuales se conoce la temperatura estática de la formación. De cada yacimiento se disponía de datos tanto de medidas como de las propiedades termo-físicas. Estos datos, en ocasiones, eran insuficientes para la aplicación de todos los métodos, lo cual obligo a adoptar hipótesis sobre los mismos. Esto ha permitido evaluar la precisión de cada método en cada caso. A partir de los resultados obtenidos se han formulado una colección de criterios que permiten seleccionar qué método se adapta mejor para el caso de un yacimiento concreto, de tal manera que el resultado final sea lo más preciso posible. Estos criterios se han fijado en función de las propiedades termo-físicas del yacimiento, que determinan el tipo de yacimiento, y del grado de conocimiento que se dispone del yacimiento objeto de estudio.
Resumo:
Se plantean las ecuaciones de la Magnetogasdinámica desde un punto de vista puramente macroscópico,bajo la hipótesis fundamental de que las ecuaciones de MAXWELL no son modificadas por el movimiento gasdinámico y de que el gas es un medio continuo que se comporta como un fluido neutro y no como una mezcla de partículas individuales positivas y negativas. A continuación se consideran únicamente movimientos estacionarios y no disipativos. Entre este tipo particular de corrientes se eligen aquellas en las que el campo magnético es, en cada punto, paralelo al campo de velocidades; debiendo investigar a posteriori las condiciones de contorno que garanticen la existencia de tal tipo de soluciones.Después de comprobar que, en nuestro caso particular, el problema magnetogasdinámico se puede plantear en una forma muy similar a la de ciertos problemas puramente gasdinámicos.Se estudia el problema transónico de RlNGLEB para un gas conductor.La conclusión fundamental deducida de la solución obtenida, es la de que la presencia del campo magnético permite, bajo ciertas condiciones, obtener corrientes continuas isentrópicas a números de Mach mucho mayores que los que se obtienen en en el problema gasdinámico clásico.
Resumo:
El presente trabajo de investigación pretende desarrollar prácticas de dimensionamiento, órdenes de magnitud y criterios de diseño que permitan al proyectista predimensionar secciones transversales de puentes de sección cajón de hormigón pretensado de carretera que sean técnicamente viables al igual que económicamente óptimas. En la elaboración del trabajo se consideraron tres grupos de normativas de aplicación de cargas y diseño estructural de puentes de hormigón pretensado al igual que dos grupos de precios referenciales aplicables en un país desarrollado y en país en vías de desarrollo. Inicialmente se desarrollan las principales características y propiedades de los puentes pretensados de sección cajón, al igual que se exponen varias recomendaciones clásicas de predimensionamiento recabadas de la bibliografía especializada. Posteriormente, se desarrollan las ecuaciones y expresiones que condicionan las principales solicitaciones sobre la estructura al igual que su capacidad resistente frente a las mismas, siguiendo las especificaciones establecidas en las diferentes normativas. Seguidamente, con las mencionadas expresiones se ejecuta un análisis paramétrico para cuantificar la influencia que las diferentes dimensiones transversales de un puente de sección cajón tienen en el comportamiento estructural y en el costo del puente. Finalmente, se presentan los resultados producidos por el análisis paramétrico para derivar conclusiones y recomendaciones finales. Como futura línea de investigación se incluye un anejo que describe novedosas técnicas informáticas de optimización.
Resumo:
El proyecto, “Aplicaciones de filtrado adaptativo LMS para mejorar la respuesta de acelerómetros”, se realizó con el objetivo de eliminar señales no deseadas de la señal de información procedentes de los acelerómetros para aplicaciones automovilísticas, mediante los algoritmos de los filtros adaptativos LMS. Dicho proyecto, está comprendido en tres áreas para su realización y ejecución, los cuales fueron ejecutados desde el inicio hasta el último día de trabajo. En la primera área de aplicación, diseñamos filtros paso bajo, paso alto, paso banda y paso banda eliminada, en lo que son los filtros de butterworth, filtros Chebyshev, de tipo uno como de tipo dos y filtros elípticos. Con esta primera parte, lo que se quiere es conocer, o en nuestro caso, recordar el entorno de Matlab, en sus distintas ecuaciones prediseñadas que nos ofrece el mencionado entorno, como también nos permite conocer un poco las características de estos filtros. Para posteriormente probar dichos filtros en el DSP. En la segunda etapa, y tras recordar un poco el entorno de Matlab, nos centramos en la elaboración y/o diseño de nuestro filtro adaptativo LMS; experimentado primero con Matlab, para como ya se dijo, entender y comprender el comportamiento del mismo. Cuando ya teníamos claro esta parte, procedimos a “cargar” el código en el DSP, compilarlo y depurarlo, realizando estas últimas acciones gracias al Visual DSP. Resaltaremos que durante esta segunda etapa se empezó a excitar las entradas del sistema, con señales provenientes del Cool Edit Pro, y además para saber cómo se comportaba el filtro adaptativo LMS, se utilizó señales provenientes de un generador de funciones, para obtener de esta manera un desfase entre las dos señales de entrada; aunque también se utilizó el propio Cool Edit Pro para obtener señales desfasadas, pero debido que la fase tres no podíamos usar el mencionado software, realizamos pruebas con el generador de funciones. Finalmente, en la tercera etapa, y tras comprobar el funcionamiento deseado de nuestro filtro adaptativo DSP con señales de entrada simuladas, pasamos a un laboratorio, en donde se utilizó señales provenientes del acelerómetro 4000A, y por supuesto, del generador de funciones; el cual sirvió para la formación de nuestra señal de referencia, que permitirá la eliminación de una de las frecuencias que se emitirá del acelerómetro. Por último, cabe resaltar que pudimos obtener un comportamiento del filtro adaptativo LMS adecuado, y como se esperaba. Realizamos pruebas, con señales de entrada desfasadas, y obtuvimos curiosas respuestas a la salida del sistema, como son que la frecuencia a eliminar, mientras más desfasado estén estas señales, mas se notaba. Solucionando este punto al aumentar el orden del filtro. Finalmente podemos concluir que pese a que los filtros digitales probados en la primera etapa son útiles, para tener una respuesta lo más ideal posible hay que tener en cuenta el orden del filtro, el cual debe ser muy alto para que las frecuencias próximas a la frecuencia de corte, no se atenúen. En cambio, en los filtros adaptativos LMS, si queremos por ejemplo, eliminar una señal de entre tres señales, sólo basta con introducir la frecuencia a eliminar, por una de las entradas del filtro, en concreto la señal de referencia. De esta manera, podemos eliminar una señal de entre estas tres, de manera que las otras dos, no se vean afectadas por el procedimiento. Abstract The project, "LMS adaptive filtering applications to improve the response of accelerometers" was conducted in order to remove unwanted signals from the information signal from the accelerometers for automotive applications using algorithms LMS adaptive filters. The project is comprised of three areas for implementation and execution, which were executed from the beginning until the last day. In the first area of application, we design low pass filters, high pass, band pass and band-stop, as the filters are Butterworth, Chebyshev filters, type one and type two and elliptic filters. In this first part, what we want is to know, or in our case, remember the Matlab environment, art in its various equations offered by the mentioned environment, as well as allows us to understand some of the characteristics of these filters. To further test these filters in the DSP. In the second stage, and recalling some Matlab environment, we focus on the development and design of our LMS adaptive filter; experimented first with Matlab, for as noted above, understand the behavior of the same. When it was clear this part, proceeded to "load" the code in the DSP, compile and debug, making these latest actions by the Visual DSP. Will highlight that during this second stage began to excite the system inputs, with signals from the Cool Edit Pro, and also for how he behaved the LMS adaptive filter was used signals from a function generator, to thereby obtain a gap between the two input signals, but also used Cool Edit Pro himself for phase signals, but due to phase three could not use such software, we test the function generator. Finally, in the third stage, and after checking the desired performance of our DSP adaptive filter with simulated input signals, we went to a laboratory, where we used signals from the accelerometer 4000A, and of course, the function generator, which was used for the formation of our reference signal, enabling the elimination of one of the frequencies to be emitted from the accelerometer. Note that they were able to obtain a behavior of the LMS adaptive filter suitable as expected. We test with outdated input signals, and got curious response to the output of the system, such as the frequency to remove, the more outdated are these signs, but noticeable. Solving this point with increasing the filter order. We can conclude that although proven digital filters in the first stage are useful, to have a perfect answer as possible must be taken into account the order of the filter, which should be very high for frequencies near the frequency cutting, not weakened. In contrast, in the LMS adaptive filters if we for example, remove a signal from among three signals, only enough to eliminate the frequency input on one of the inputs of the filter, namely the reference signal. Thus, we can remove a signal between these three, so that the other two, not affected by the procedure.
Resumo:
En la actualidad, el interés por las plantas de potencia de ciclo combinado de gas y vapor ha experimentado un notable aumento debido a su alto rendimiento, bajo coste de generación y rápida construcción. El objetivo fundamental de la tesis es profundizar en el conocimiento de esta tecnología, insuficientemente conocida hasta el momento debido al gran número de grados de libertad que existen en el diseño de este tipo de instalaciones. El estudio se realizó en varias fases. La primera consistió en analizar y estudiar las distintas tecnologías que se pueden emplear en este tipo de centrales, algunas muy recientes o en fase de investigación, como las turbinas de gas de geometría variable, las turbinas de gas refrigeradas con agua o vapor del ciclo de vapor o las calderas de paso único que trabajan con agua en condiciones supercríticas. Posteriormente se elaboraron los modelos matemáticos que permiten la simulación termodinámica de cada uno de los componentes que integran las plantas, tanto en el punto de diseño como a cargas parciales. Al mismo tiempo, se desarrolló una metodología novedosa que permite resolver el sistema de ecuaciones que resulta de la simulación de cualquier configuración posible de ciclo combinado. De esa forma se puede conocer el comportamiento de cualquier planta en cualquier punto de funcionamiento. Por último se desarrolló un modelo de atribución de costes para este tipo de centrales. Con dicho modelo, los estudios se pueden realizar no sólo desde un punto de vista termodinámico sino también termoeconómico, con lo que se pueden encontrar soluciones de compromiso entre rendimiento y coste, asignar costes de producción, determinar curvas de oferta, beneficios económicos de la planta y delimitar el rango de potencias donde la planta es rentable. El programa informático, desarrollado en paralelo con los modelos de simulación, se ha empleado para obtener resultados de forma intensiva. El estudio de los resultados permite profundizar ampliamente en el conocimiento de la tecnología y, así, desarrollar una metodología de diseño de este tipo de plantas bajo un criterio termoeconómico. ABSTRACT The growing energy demand and the need of shrinking costs have led to the design of high efficiency and quick installation power plants. The success of combined cycle gas turbine power plants lies on their high efficiency, low cost and short construction lead time. The main objective of the work is to study in detail this technology, which is not thoroughly known owing to the great number of degrees of freedom that exist in the design of this kind of power plants. The study is divided into three parts. Firstly, the different technologies and components that could be used in any configuration of a combined cycle gas turbine power plant are studied. Some of them could be of recent technology, such as the variable inlet guide vane compressors, the H-technology for gas turbine cooling or the once-through heat recovery steam generators, used with water at supercritical conditions. Secondly, a mathematical model has been developed to simulate at full and part load the components of the power plant. At the same time, a new methodology is proposed in order to solve the equation system resulting for any possible power plant configuration. Therefore, any combined cycle gas turbine could be simulated at any part load condition. Finally a themoeconomic model is proposed. This model allows studying the power plant not only from a thermodynamic point of view but also from a thermoeconomic one. Likewise, it allows determining the generating costs or the cash flow, thus achieving a trade off between efficiency and cost. Likewise, the model calculates the part load range where the power plant is profitable. Once the thermodynamic and thermoeconomic models are developed, they are intensively used in order to gain knowledge in the combined cycle gas turbine technology and, in this way, to propose a methodology aimed at the design of this kind of power plants from a thermoeconomic point of view.
Resumo:
En el capítulo dedicado a la calidad de la estación, como primera etapa se realiza una exhaustiva revisión bibliográfica a partir de la cual se comprueba que los métodos más precisos para determinar esta calidad, en términos generales, son aquellos basados en la relación de la altura con la edad. En base a los datos que se encuentran disponibles y como fruto de esta revisión bibliográfica, se decide probar tres métodos: uno de ellos que estudia la evolución de la altura en función del diámetro (MEYER) y los otros dos en función de la edad (BAILEY y CLUTTER y GARCÍA). Para probar estos métodos, se utilizan datos de parcelas de producción distribuidas en los tres principales sistemas montañosos de España: Ibérico, Central y Pirenaico. El modelo de MEYER implica una clasificación previa de las parcelas en función de su clase de sitio y los ajustes se realizan para cada clase, con lo que se obtienen cuatro curvas polimórficas. La ecuación que describe este modelo es: H = 1.3 + s(1-e-bD) El modelo de BAILEY y CLUTTER genera también un sistema de curvas polimórficas y se genera a partir de la relación entre el 1og de la altura y la inversa de la edad: log H = a + b¡(1/AC) Este método implica una agrupación o estratificación de las parcelas en clases de sitio. Por último, se prueba el modelo de GARCÍA que se basa en una ecuación diferencial estocástica: dHc(t) = b(ac-Hc(t)) + a(t)dw(t) y se prueba la siguiente estructura paramétrica: a b c °"0 o *o H0 global 1 oca 1 g1obal 0.00 global 0.00 0.0 Posteriormente se hace un análisis de los residuos en que se aplica la prueba de Durbin-Watson que detecta la presencia de correlación serial. Se verifica la forma aproximada a un "cometa" en los residuos, lo que es frecuente en series de tiempo cuando la magnitud analizada (en nuestro caso, la altura dominante) se acumula en el tiempo. Esta prueba no es concluyente en el sentido de que no aclara que modelo es el más apropiado. Finalmente, se validan estos modelos utilizando datos de las parcelas de clara. Para esto se utiliza información de arboles tipo sometidos a análisis de tronco. Esta validación permite concluir que el modelo de GARCÍA es el que mejor explica la evolución del crecimiento en altura. En el capítulo dedicado a las distribuciones diamétricas, se pretende modelizar dichas distribuciones a través de variables de estado. Para esto, como primera etapa, se prueban para 45 parcelas y tres inventarios, las siguientes funciones: - Normal - Gamma - Ln de dos parámetros - Ln de tres parámetros - Beta I I - Wei bul 1 Mediante el uso de chi-cuadrado como estimador de la bondad del ajuste, se determina que la función de Weibull es la que mejor responde a la distribución diamétrica de nuestras parcelas. Posteriormente, se comprueba la bondad de dicho ajuste, mediante la prueba de Kolmogorov-Smirnov, el que determina que en el 99X de los casos, el ajuste es aceptable. Luego se procede a la recuperación de 1 os*parámetros de la función de Weibull; a, b y c. En esta etapa se estratifica la información y se realizan análisis de varianza (ANOVA) y pruebas de medias de TUKEY que dan como resultado el que se continúe trabajando por tratamiento y por inventario quedando la diferencia entre sitios absorbida por la altura dominante. Para la recuperación de los parámetros, se utilizan las variables de estado que definen a nuestras parcelas; edad, densidad, altura dominante, diámetro medio cuadrático y área basimétrica. El método seguido es la obtención de ecuaciones de regresión con las variables de estado como independientes para predecir los valores de los parámetros antes mencionados. Las ecuaciones se obtienen utilizando distintas vías (STEPWISE, ENTER y RSQUARE) lo que nos proporciona abundante material para efectuar la selección de éstas. La selección de las mejores ecuaciones se hace en base a dos estadísticos conocidos: - Coeficiente de determinación ajustado: R2 a - Cp de MALLOWS Estos elementos se tratan en forma conjunta considerando, además, que el número de parámetros esté en concordancia con el número de datos. El proceso de selección implica que se obtengan 36 ecuaciones de regresión que posteriormente se validan en dos sentidos. Por una parte, se calcula el valor de cada parámetro según la ecuación que le corresponda y se compara con el valor de los parámetros calculados en el ajuste de Weibull. Lo que se puede deducir de esta etapa es que la distorsión que sufren los parámetros al efectuar ecuaciones de regresión, es relativamente baja y la diferencia se produce debido a errores que se originan al realizar los modelos. Por otra parte, con las parcelas que se encuentren disponibles, se valida el modelo en el sentido de hacer el proceso inverso al anterior, es decir a partir de sus variables de estado, fácilmente medibles, se obtienen los valores de los parámetros que definen a la función de Weibull. Con esto se reconstruye la distribución diamétrica de cada función. Los resultados que se obtienen de esto indican que los ajustes son aceptables a un nivel del 1X en el caso de tres parcelas.
Resumo:
El método de los elementos de contorno ha suscitado un interés creciente en los últimos diez años, presentándose como una herramienta útil para la resolución de problemas de la ingeniería estructural , modelados matemáticamente por sistemas de ecuaciones diferenciales en derivadas parciales. A través de una formulación integral en el contorno del dominio, donde se define el problema, se consigue la resolución de éste, mediante la sola discretización de aquél, en contraposición a los métodos de dominio, que necesitan la completa discretización del mismo (Elementos Finitos ). Estos años han servido, por un lado para cimentar el método anterior - en cuanto a sus bases matemáticas se refiere, y por otro para definir los campos de la Física donde su utilización podría ser más efectiva. Puede decirse que han sido lo que la década de los 60 para elementos finitos : la preparación inicial para el desarrollo espectacular hoy alcanzado. De hecho, el método de los elementos finítos es capaz de abordar eficazmente los grandes retos que plantea el cálculo estructural en la actualidad, mientras que los elementos de contorno no han alcanzado aún dicho estadio. Esta Tesis pretende establecer el camino definitivo para la resolución de este tipo de problemas en el caso elástico tridimensional. Para ello, se ha desarrollado la formulación pertinente tanto en su fase, puramente matemática, como numérica para medios tridimensionales heterogéneos, así como un programa de grandes posibilidades que permiten atacar cualquier caso prácticamente sin limitaciones de tamaño, geometría ó condiciones de contorno en el marco de la Elasticidad Tridimensional. El trabajo se compone de dos partes claramente diferenciadas, el estudio y planteamiento del método, así como la descripción de las soluciones adoptadas para la resolución de los múltiples problemas numéricos que plantea no solo el método en sí, sino la implementación de un programa de tales características , y de un anexo que comprende la descripción detallada de cada uno de los apartados que componen el programa. Por último y paralelamente se ha analizado también el caso axisimétrico, problema tridimensional con características muy especificas, desarrollandose su formulación e implementando asimismo un programa que demuestra la exactitud de dicha formulación.