434 resultados para Quadrático logarítmico


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Genética e Melhoramento Animal - FCAV

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The experiment was conducted in the experimental field of the University of GoiásUEG, UNU Ipameri - GO with the objective of evaluating the effect of different doses of vinasse on the vegetative development of degraded pasture and soil physical properties in two seasons. The pasture used in the experiment was in a state of degradation, and had eight years of formation. The experimental design was randomized blocks consisted of eight treatments and four blocks, totaling 32 experimental units. We evaluated the following soil physical properties: density the soil, particle density, total porosity, infiltration velocity, soil water. We also evaluated the following parameters of vegetative development of grassland: green and dry mass of shoots, effective depth of the root system, the grass height. The results were submitted to analysis of variance at 5% significance level and after we performed regression testing. The vinasse promoted significant effect on all parameters related to vegetative development of both grazing during the rainy season as in the dry. In this case, a model that best fit the dataset vegetative pasture was quadratic. It appeared that the vinasse different doses did not cause changes in the physical properties of the soil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Maintaining the pH of urine in the ideal range (6.2 - 6.4) is of great importance for health promotion in the lower urinary tract of cats. In the economic and standard feed sector this is a major concern, given that the animal urine tends to be alkaline after food consumption of those commercial segments, which predispose to the formation of struvite urolith. Therefore, this study aimed to study the effects of increasing levels of urinary acidifiers (0.0%, 0.3%, 0.6% and 0.9%, on a dry matter base) in feed with high excess base over the acid-basic balance in the organism, apparent digestibility coefficients of nutrients, urinary pH, hydro-electrolyte balance in cats, as well as the adequacy of equations proposed in the literature to estimate the urinary pH. Twenty-four adult cats, males and females were distributed in a completely randomized design, consisting of six animals per treatment. The dry matter content of urine presented a quadratic behavior (p<0,05; y = 9.5863 + 3.2299x + 0.7871x2 R2 = 99,91%), HCO3-, total CO2 and excess blood base during the period in which the animals were fed were high when including 0.9% acidifier compared to 0.6% (p<0.05). In contrast, the use of the additive did not change the urinary pH, blood electrolyte concentration, nutrient digestibility, fecal score, food and water intake (p>0.05). The equations proposed in the literature, which use excess of base in feed to estimate urinary pH, overestimated the pH values found in this study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi realizado com o objetivo de se modelar e avaliar o comportamento hidráulico de microtubos ramificados, com base na relação entre vazão e comprimento dos microtubos para uma pressão de entrada, operando sob regime laminar. Dois modelos matemáticos foram estudados, em que um considerou a perda localizada de carga no dimensionamento dos microtubos ramificados e o outro a desconsiderou. O experimento para validação dos modelos foi conduzido no Laboratrio de Hidráulica da Escola Superior de Agricultura "Luiz de Queiroz" (ESALQ-USP), Piracicaba, SP, medindo-se a vazão dos emissores para as pressões de 14,7; 18,6; 39,2 e 58,9 kPa. A configuração do sistema de irrigação consistiu de uma linha lateral com diâmetro nominal (DN) de 10,0 mm, na qual foram inseridos microtubos conectores com DN de 0,8 mm conectados a um segmento de tubo de derivação e acoplados seis microtubos emissores com DN de 0,7 mm. Verificou-se que, dentre os modelos matemáticos, aquele que considerou a perda localizada de carga apresentou maior exatidão pois teve elevado, um bom índice de Willmott e baixo erro quadrático médio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta revisão foi avaliar os possíveis efeitos da utilização da quitosana na nutrição de ruminantes e demonstrar os resultados obtidos com sua aplicação na dieta de bovinos no Brasil. Foram utilizados neste estudo 8 novilhos canulados da raça Nelore. Os animais foram submetidos à 4 diferentes tratamentos, sendo além do controle, fomecidas as doses de 50 mg, 100 mg ou 150 mg/kg de peso vivo (PV) de quitosana diariamente e inseri da no rúmen. Na adição da concentração de 150 mg/kg de PV de quitosana observou-se diminuição sobre o consumo de fibra detergente neutro (FDN), expressos em kg/dia e em porcentagem de PV do animal. A inclusão de quitosana na dieta proporcionou aumento da digestibilidade da matéria seca (MS), matéria orgânica (MO), proteína bruta (PB),carboidratos totais (CT), FDN e nutrientes digestíveis totais (NDT). Houve efeito quadrático sobre o N-NH3 com a inclusão de quitosana na dieta. A inclusão de quitosana na dieta alterou as proporções molares de AGCC individualmente. O aditivo proporcionou aumento das concentrações de propionato (mmol/L) a medida que se elevou as concentrações de quitosana e de forma semelhante houve aumento de 7,47% para as porcentagens molares de propionato. Houve diminuição da relação acetato:propionato, principalmente com a inclusão de 150mg/Kg de peso vivo de quitosana diariamente.Foi observado também neste trabalho, efeito linear decrescente para a proporção molar de butirato.Assim como esperado as concentrações de glicose plasmática foram influenciadas notadamente neste estudo, resultando num incremento de 18,58%, 26,35%, 23,68% respectivamente para o controle versus as três concentrações utilizadas. Estes dados são coesivos com o aumento também linear obtido na participação do propionato no total de AGCC. Embora estejam dentro dos...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram conduzidos dois experimentos para avaliar fontes orgânicas e inorgânicas de zinco e cobre nas dietas e seus efeitos no desempenho de leitões desmamados aos 21 dias de idade. Em cada experimento, foram utilizados 90 leitões em delineamento experimental de blocos ao acaso, com cinco dietas, seis repetições e três animais por parcela. As dietas utilizadas nos experimentos 1 e 2 continham 120 ppm de zinco e 10 ppm de cobre na forma de sulfato. No experimento 1, foram suplementadas com 0, 300, 600 e 900 ppm de zinco na forma orgânica ou 2.400 ppm na forma de óxido (ZnO) e, no experimento 2, com 0, 50, 100 e 150 ppm de cobre na forma orgânica ou 240 ppm de cobre na forma de sulfato (CuSO4 H2O). No experimento 1, os níveis de zinco de fonte orgânica tiveram efeito linear no consumo de ração e no ganho de peso nos períodos de 0 a 15 dias e de 0 a 21 dias pós-desmame. O ganho de peso nas fases de 0 a 35 dias e de 0 a 42 dias pós-desmame e o consumo de ração dos leitões que receberam a dieta com 900 ppm de zinco de fonte orgânica não diferiram dos valores observados naqueles que receberam a dieta com 2.400 ppm de zinco na forma inorgânica. A suplementação da dieta com zinco na forma orgânica (900 ppm) ou inorgânica (2.400 ppm) aumentou o consumo de ração e o ganho de peso de leitões nas primeiras três semanas após o desmame. A suplementação da dieta com 2.400 ppm de zinco na forma inorgânica reduziu a incidência de diarreia nas primeiras três semanas pós-desmame. No experimento 2, os níveis de cobre de fonte orgânica tiveram efeito quadrático no consumo de ração dos leitões nos períodos de 0 a 31 e de 0 a 40 dias pós-desmame. A suplementação da dieta com cobre, tanto de fonte orgânica (90 ppm) como inorgânica (240 ppm), aumenta o consumo de ração e o ganho de peso de leitões nos primeiros 40 dias pós-desmame

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos processos de envelhecimento do Vinho Madeira é a “Estufagem” realizada através da circulação de água aquecida a uma determinada temperatura por um sistema de serpentina existente no interior de cada estufa. De modo a tornar o processo de estufagem eficiente e preservar a qualidade do Vinho Madeira, a monitorização, registo e controlo da temperatura reveste-se da maior importância sendo, atualmente, todo esse processo realizado, por norma, manualmente, quer no sistema de dez estufas de aço inox existente no laboratório de enologia da Universidade da Madeira (UMa), quer nos sistemas das cooperativas de Vinho Madeira. Existem, no mercado, alguns sistemas que solucionam, com menor ou maior limitação, este problema. Porém, nenhum desses sistemas implementa um sistema de controlo “inteligente” capaz de se adaptar automaticamente a diferentes períodos de temperaturas predefinidos e manter o aquecimento das estufas de acordo com essas temperaturas com uma margem de erro inferior a ±0,5℃, bem como o custo associado aos mesmos é elevado o que dificulta a sua implementação neste setor. O sistema implementado, nesta tese, consiste em duas aplicações: uma aplicação web e uma Windows Forms Application. A aplicação web foi desenvolvida em C# com recurso à framework ASP.NET Web Pages e implementa toda a lógica necessária à monitorização gráfica e à gestão do sistema, nomeadamente a definição do setpoint para cada estufa. A Windows Forms Application, também desenvolvida em C# devido à necessidade de interligação com a biblioteca fornecida pela CAREL para conexão aos controladores de temperatura IR32, efetua o registo e controlo automático da temperatura, de acordo com o setpoint definido para cada estufa através da aplicação web. O controlo de temperatura realiza-se com recurso às redes neuronais, nomeadamente através dum controlador DIC (Direct Inverse Controller) que obteve, de entre os vários controladores testados, o melhor Erro Quadrático Médio (MSE) e o melhor Coeficiente de Correlação (R). Através da utilização do sistema implementado conseguiu-se eliminar a limitação física de erro com ± 1℃ em torno do setpoint tendo-se conseguido, para o melhor caso, uma margem de erro de ± 0,1℃ relativamente ao setpoint reduzindo-se, assim, a margem de variação de temperatura até um máximo de 1,8ºC e, consequentemente, o erro associado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia las similitudes y diferencias entre los flujos turbulentos de pared de tipo externo e interno, en régimen incompresible, y a números de Reynolds moderada¬mente altos. Para ello consideramos tanto simulaciones numéricas como experimentos de capas límites con gradiente de presiones nulo y de flujos de canal, ambos a números de Reynolds en el rango δ+ ~ 500 - 2000. Estos flujos de cortadura son objeto de numerosas investigaciones debido a la gran importancia que tienen tanto a nivel tecnológico como a nivel de física fundamental. No obstante, todavía existen muchos interrogantes sobre aspectos básicos tales como la universalidad de los perfiles medios y de fluctuación de las velocidades o de la presión, tanto en la zona cercana a la pared como en la zona logarítmica, el escalado y el efecto del número de Reynolds, o las diferencias entre los flujos internos y externos en la zona exterior. En éste estudio hemos utilizado simulaciones numéricas ya existentes de canales y capas límites a números de Reynolds δ+ ~ 2000 y δ+ ~ 700, respectivamente. Para poder comparar ambos flujos a igual número de Reynolds hemos realizado una nueva simulación directa de capa límite en el rango δ+ ~ 1000-2000. Los resultados de la misma son presentados y analizados en detalle. Los datos sin postprocesar y las estadísticas ya postprocesadas están públicamente disponibles en nuestro sitio web.162 El análisis de las estadísticas usando un único punto confirma la existencia de perfiles logarítmicos para las fluctuaciones de la velocidad transversal w'2+ y de la presión p'2+ en ambos tipos de flujos, pero no para la velocidad normal v'2+ o la velocidad longitudinal u'2+. Para aceptar o rechazar la existencia de un rango logarítmico en u'2+ se requieren números de Reynolds más altos que los considerados en éste trabajo. Una de las conse¬cuencias más importantes de poseer tales perfiles es que el valor máximo de la intensidad, que se alcanza cerca de la pared, depende explícitamente del número de Reynolds. Esto ha sido confirmado tras analizar un gran número de datos experimentales y numéricos, cor¬roborando que el máximo de u'2+, p/2+, y w'2+ aumenta proporcionalmente con el log(δ+). Por otro lado, éste máximo es más intenso en los flujos externos que en los internos. La máxima diferencia ocurre en torno a y/δ ~ 0.3-0.5, siendo esta altura prácticamente independiente del número de Reynolds considerado. Estas diferencias se originan como consecuencia del carácter intermitente de las capas límites, que es inexistente en los flujos internos. La estructura de las fluctuaciones de velocidad y de presión, junto con la de los esfuer¬zos de Reynolds, se han investigado por medio de correlaciones espaciales tridimensionales considerando dos puntos de medida. Hemos obtenido que el tamaño de las mismas es gen¬eralmente mayor en canales que en capas límites, especialmente en el caso de la correlación longitudinal Cuu en la dirección del flujo. Para esta correlación se demuestra que las es¬tructuras débilmente correladas presentan longitudes de hasta 0(75), en el caso de capas límites, y de hasta 0(185) en el caso de canales. Estas longitudes se obtienen respecti-vamente en la zona logarítmica y en la zona exterior. Las longitudes correspondientes en la dirección transversal son significativamente menores en ambos flujos, 0(5 — 25). La organización espacial de las correlaciones es compatible con la de una pareja de rollos casi paralelos con dimensiones que escalan en unidades exteriores. Esta organización se mantiene al menos hasta y ~ 0.65, altura a la cual las capas límites comienzan a organi¬zarse en rollos transversales. Este comportamiento es sin embargo más débil en canales, pudiéndose observar parcialmente a partir de y ~ 0.85. Para estudiar si estas estructuras están onduladas a lo largo de la dirección transver¬sal, hemos calculado las correlaciones condicionadas a eventos intensos de la velocidad transversal w'. Estas correlaciones revelan que la ondulación de la velocidad longitudinal aumenta conforme nos alejamos de la pared, sugiriendo que las estructuras están más alineadas en la zona cercana a la pared que en la zona lejana a ella. El por qué de esta ondulación se encuentra posiblemente en la configuración a lo largo de diagonales que presenta w'. Estas estructuras no sólo están onduladas, sino que también están inclinadas respecto a la pared con ángulos que dependen de la variable considerada, de la altura, y de el contorno de correlación seleccionado. Por encima de la zona tampón e independien¬temente del número de Reynolds y tipo de flujo, Cuu presenta una inclinación máxima de unos 10°, las correlaciones Cvv y Cm son esencialmente verticales, y Cww está inclinada a unos 35°. Summary This thesis studies the similitudes and differences between external and internal in¬compressible wall-bounded turbulent flows at moderately-high Reynolds numbers. We consider numerical and experimental zero-pressure-gradient boundary layers and chan¬nels in the range of δ+ ~ 500 — 2000. These shear flows are subjects of intensive research because of their technological importance and fundamental physical interest. However, there are still open questions regarding basic aspects such as the universality of the mean and fluctuating velocity and pressure profiles at the near-wall and logarithmic regions, their scaling and the effect of the Reynolds numbers, or the differences between internal and external flows at the outer layer, to name but a few. For this study, we made use of available direct numerical simulations of channel and boundary layers reaching δ+ ~ 2000 and δ+ ~ 700, respectively. To fill the gap in the Reynolds number, a new boundary layer simulation in the range δ+ ~ 1000-2000 is presented and discussed. The original raw data and the post-processed statistics are publicly available on our website.162 The analysis of the one-point statistic confirms the existence of logarithmic profiles for the spanwise w'2+ and pressure p'2+ fluctuations for both type of flows, but not for the wall-normal v'2+ or the streamwise u'2+ velocities. To accept or reject the existence of a logarithmic range in u'2+ requires higher Reynolds numbers than the ones considered in this work. An important consequence of having such profiles is that the maximum value of the intensities, reached near the wall, depends on the Reynolds number. This was confirmed after surveying a wide number of experimental and numerical datasets, corrob¬orating that the maximum of ul2+, p'2+, and w'2+ increases proportionally to log(δ+). On the other hand, that maximum is more intense in external flows than in internal ones, differing the most around y/δ ~ 0.3-0.5, and essentially independent of the Reynolds number. We discuss that those differences are originated as a consequence of the inter¬mittent character of boundary layers that is absent in internal flows. The structure of the velocity and pressure fluctuations, together with those of the Reynolds shear stress, were investigated using three-dimensional two-point spatial correlations. We find that the correlations extend over longer distances in channels than in boundary layers, especially in the case of the streamwise correlation Cuu in the flow direc-tion. For weakly correlated structures, the maximum streamwise length of Cuu is O(78) for boundary layers and O(188) for channels, attained at the logarithmic and outer regions respectively. The corresponding lengths for the transverse velocities and for the pressure are shorter, 0(8 — 28), and of the same order for both flows. The spatial organization of the velocity correlations is shown to be consistent with a pair of quasi-streamwise rollers that scales in outer units. That organization is observed until y ~ 0.68, from which boundary layers start to organize into spanwise rollers. This effect is weaker in channels, and it appears at y ~ 0.88. We present correlations conditioned to intense events of the transversal velocity, w', to study if these structures meander along the spanwise direction. The results indicate that the streamwise velocity streaks increase their meandering proportionally to the distance to the wall, suggesting that the structures are more aligned close to the wall than far from it. The reason behind this meandering is probably due to the characteristic organization along diagonals of w'. These structures not only meander along the spanwise direction, but they are also inclined to the wall at angles that depend on the distance from the wall, on the variable being considered, and on the correlation level used to define them. Above the buffer layer and independent of the Reynolds numbers and type of flow, the maximum inclination of Cuu is about 10°, Cvv and Cpp are roughly vertical, and Cww is inclined by 35°.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existen en el mercado numerosas aplicaciones para la generación de reverberación y para la medición de respuestas al impulso acústicas. Sin embargo, éstas son de precios muy elevados y/o no se permite acceder a su código y, mucho menos, distribuir de forma totalmente libre. Además, las herramientas que ofrecen para la medición de respuestas al impulso requieren de un tedioso proceso para la generación de la señal de excitación, su reproducción y grabación y, finalmente, su post-procesado. Este procedimiento puede llevar en ocasiones al usuario a cometer errores debido a la falta de conocimientos técnicos. El propósito de este proyecto es dar solución a algunos de los inconvenientes planteados. Con tal fin se llevó a cabo el desarrollo e implementación de un módulo de reverberación por convolución particionada en tiempo real, haciendo uso de software gratuito y de libre distribución. En concreto, se eligió la estación digital de trabajo (DAW. Digital Audio Worksation) REAPER de la compañía Cockos. Además de incluir las funcionalidades básicas de edición y secuenciación presentes en cualquier DAW, el programa incluye un entorno para la implementación de efectos de audio en lenguaje JS (Jesusonic), y se distribuye con licencias completamente gratuitas y sin limitaciones de uso. Complementariamente, se propone una extensión para REAPER que permite la medición de respuestas al impulso de recintos acústicos de una forma completamente automatizada y amigable para el usuario. Estas respuestas podrán ser almacenadas y posteriormente cargadas en el módulo de reverberación, permitiendo aplicar sobre nuestras pistas de audio la respuesta acústica de cualquier recinto en el que se hayan realizado medidas. La implementación del sistema de medida de respuestas se llevó a cabo empleando la herramienta ReaScript de REAPER, que permite la ejecución de pequeños scripts Python. El programa genera un Barrido Sinusoidal Logarítmico que excita el recinto acústico cuya respuesta se desea medir, grabando la misma en un archivo .wav. Este procedimiento es sencillo, intuitivo y está al alcance de cualquier usuario doméstico, ya que no requiere la utilización de sofisticado instrumental de medida. ABSTRACT. There are numerous applications in the market for the generation of reverb and measurement of acoustic impulse responses. However, they are usually very costly and closed source. In addition, the provided tools for measuring impulse responses require tedious processes for the generation and reproduction of the excitation signal, the recording of the response and its final post-processing. This procedure can sometimes drive the user to make mistakes due to the lack of technical knowledge. The purpose of this project is to solve some of the mentioned problems. To that end we developed and implemented a real-time partitioned convolution reverb module using free open source software. Specifically, the chosen software was the Cockos’ digital audio workstation (DAW) REAPER. In addition to the basic features included in any DAW, such as editing and sequencing, the program includes an environment for implementing audio effects in JS (Jesusonic) language of free distribution and features an unrestricted license. As an extension for REAPER, we propose a fully automated and user-friendly method for measuring rooms’ acoustic impulse responses. These will be stored and then loaded into the reverb module, allowing the user to apply the acoustical response of any room where measurement have been taken to any audio track. The implementation of the impulse response measurement system was done using REAPER’s ReaScript tool that allows the execution of small Python scripts. The program generates a logarithmic sine sweep that excites the room and its response is recorded in a .wav file. This procedure is simple, intuitive and it is accessible to any home user as it does not require the use of sophisticated measuring equipment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sociedade está cada vez mais exigente com relação à qualidade dos produtos consumidos e se preocupa com os benefícios para a saúde. Neste contexto, objetivou-se avaliar o efeito da inclusão de níveis de óleo de canola na dieta de vacas sobre amanteiga e muçarela, buscando produtos mais saudáveis para o consumo humano. Foram utilizadas 18 vacas Holandesas, em estágio intermediário de lactação, com produção média de 22 (± 4) Kg de leite/ dia, as quais foram distribuídas em dois quadrados latinos 3x3 contemporâneos e receberam as dietas experimentais: T1- Controle (0% de inclusão de óleo); T2- 3% de inclusão de óleo de canola e T3- 6% de inclusão de óleo de canola. O perfil lipídico foi determinado através de cromatografia gasosa, além da avaliação de qualidade nutricional, realizada através de equações utilizando os ácidos graxos obtidos no perfil lipídico, análises físico-químicas determinadas pela metodologia do Instituto Adolfo Lutz e análises microbiológicas. Houveram problemas durante processamento do leite, gerando alterações de tecnologia de fabricação do produto manteiga, obtendo-se outro produto, o creme de leite, ao invés de manteiga, além de prejuízos na qualidade microbiológicas do creme de leite e muçarela. A inclusão de óleo de canola na dieta em lactação reduziu quadraticamente os ácidos graxos de cadeia curta e proporcionou aumento quadrático dos ácidos graxos de cadeia longa, dos ácidos graxos insaturados e ácidos graxos monoinsaturados na muçarela. A relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) e a relação ômega-6/ômega-3, assim como os índices de aterogenicidade e trombogenicidade, na muçarela, reduziram linearmente 25,68%, 31,35%; 32,12% e 21,78%, respectivamente, quando comparando T1 e T3. No creme de leite, houve redução linear dos ácidos graxos de cadeia curta e média, bem como, os ácidos graxos saturados e a relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) em 41,07%; 23,82%; 15,91% e 35,59%, respectivamente, enquanto os ácidos graxos de cadeia longa, ácidos graxos insaturados e ácidos graxos monoinsaturados aumentaram linearmente 41,40%; 28,24% e 32,07%, nesta ordem, quando comparando T1 com T3. Os índices de aterogenicidade e trombogenicidade reduziram de forma linear, enquanto o índice h/H (razão ácidos graxos hipocolesterolêmicos e hipercolesterolêmicos) aumentou linearmente. A composição físico-química de ambos derivados e o rendimento da muçarela não apresentaram efeito significativo com a inclusão do óleo de canola, exceto a proteína bruta da muçarela que apresentou aumento linear e a gordura do creme de leite que apresentou efeito quadrático. As análises microbiológicas mostram contagens muito elevadas de microrganismos, sugerindo que os produtos não apresentam qualidade microbiológica, decorrente da ausência do processo de pasteurização do creme e da baixa eficiência do tratamento térmico aplicado ao leite destinado a produção da muçarela. Conclui-se que a adição de óleo de canola na dieta de vacas lactantes proporciona muçarela e creme de leite mais saudáveis para o consumo humano, pois apresentaram perfil lipídico mais rico em ácidos graxos insaturados, além da série ômega-3 e ácido oleico, entretanto, devido a problemas de processamento, estes produtos obtidos, não estão aptos ao consumo devido à ausência de qualidade microbiológica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo dessa pesquisa foi avaliar aspectos genéticos que relacionados à produção in vitro de embriões na raça Guzerá. O primeiro estudo focou na estimação de (co) variâncias genéticas e fenotípicas em características relacionadas a produção de embriões e na detecção de possível associação com a idade ao primeiro parto (AFC). Foi detectada baixa e média herdabilidade para características relacionadas à produção de oócitos e embriões. Houve fraca associação genética entre características ligadas a reprodução artificial e a idade ao primeiro parto. O segundo estudo avaliou tendências genéticas e de endogamia em uma população Guzerá no Brasil. Doadoras e embriões produzidos in vitro foram considerados como duas subpopulações de forma a realizar comparações acerca das diferenças de variação anual genética e do coeficiente de endogamia. A tendência anual do coeficiente de endogamia (F) foi superior para a população geral, sendo detectado efeito quadrático. No entanto, a média de F para a sub- população de embriões foi maior do que na população geral e das doadoras. Foi observado ganho genético anual superior para a idade ao primeiro parto e para a produção de leite (305 dias) entre embriões produzidos in vitro do que entre doadoras ou entre a população geral. O terceiro estudo examinou os efeitos do coeficiente de endogamia da doadora, do reprodutor (usado na fertilização in vitro) e dos embriões sobre resultados de produção in vitro de embriões na raça Guzerá. Foi detectado efeito da endogamia da doadora e dos embriões sobre as características estudadas. O quarto (e último) estudo foi elaborado para comparar a adequação de modelos mistos lineares e generalizados sob método de Máxima Verossimilhança Restrita (REML) e sua adequação a variáveis discretas. Quatro modelos hierárquicos assumindo diferentes distribuições para dados de contagem encontrados no banco. Inferência foi realizada com base em diagnósticos de resíduo e comparação de razões entre componentes de variância para os modelos em cada variável. Modelos Poisson superaram tanto o modelo linear (com e sem transformação da variável) quanto binomial negativo à qualidade do ajuste e capacidade preditiva, apesar de claras diferenças observadas na distribuição das variáveis. Entre os modelos testados, a pior qualidade de ajuste foi obtida para o modelo linear mediante transformação logarítmica (Log10 X +1) da variável resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the analysis of heart rate variability (HRV) are used temporal series that contains the distances between successive heartbeats in order to assess autonomic regulation of the cardiovascular system. These series are obtained from the electrocardiogram (ECG) signal analysis, which can be affected by different types of artifacts leading to incorrect interpretations in the analysis of the HRV signals. Classic approach to deal with these artifacts implies the use of correction methods, some of them based on interpolation, substitution or statistical techniques. However, there are few studies that shows the accuracy and performance of these correction methods on real HRV signals. This study aims to determine the performance of some linear and non-linear correction methods on HRV signals with induced artefacts by quantification of its linear and nonlinear HRV parameters. As part of the methodology, ECG signals of rats measured using the technique of telemetry were used to generate real heart rate variability signals without any error. In these series were simulated missing points (beats) in different quantities in order to emulate a real experimental situation as accurately as possible. In order to compare recovering efficiency, deletion (DEL), linear interpolation (LI), cubic spline interpolation (CI), moving average window (MAW) and nonlinear predictive interpolation (NPI) were used as correction methods for the series with induced artifacts. The accuracy of each correction method was known through the results obtained after the measurement of the mean value of the series (AVNN), standard deviation (SDNN), root mean square error of the differences between successive heartbeats (RMSSD), Lomb\'s periodogram (LSP), Detrended Fluctuation Analysis (DFA), multiscale entropy (MSE) and symbolic dynamics (SD) on each HRV signal with and without artifacts. The results show that, at low levels of missing points the performance of all correction techniques are very similar with very close values for each HRV parameter. However, at higher levels of losses only the NPI method allows to obtain HRV parameters with low error values and low quantity of significant differences in comparison to the values calculated for the same signals without the presence of missing points.