42 resultados para Design quality

em Universidad Politécnica de Madrid


Relevância:

70.00% 70.00%

Publicador:

Resumo:

For years, the Human Computer Interaction (HCI) community has crafted usability guidelines that clearly define what characteristics a software system should have in order to be easy to use. However, in the Software Engineering (SE) community keep falling short of successfully incorporating these recommendations into software projects. From a SE perspective, the process of incorporating usability features into software is not always straightforward, as a large number of these features have heavy implications in the underlying software architecture. For example, successfully including an “undo” feature in an application requires the design and implementation of many complex interrelated data structures and functionalities. Our work is focused upon providing developers with a set of software design patterns to assist them in the process of designing more usable software. This would contribute to the proper inclusion of specific usability features with high impact on the software design. Preliminary validation data show that usage of the guidelines also has positive effects on development time and overall software design quality.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

The Shopping centre is a long term investment in which Greenfield development decisions are often taken based on risks analysis regarding construction costs, location, competition, market and an expected DCF. Furthermore, integration between the building design, project planning, operational costs and investment analysis is not entirely considered by the investor at the decision making stage. The absence of such information tends to produce certain negative impacts on the future running costs and annual maintenance of the building, especially on energy demand and other occupancy expenses paid by the tenants to the landlord. From the investor´s point of view, this blind spot in strategy development will possibly decrease their profit margin as changes in the occupancy expenses[ ] have a direct outcome on the profit margin. In order to try to reduce some higher operating cost components such as energy use and other utility savings as well as their CO2 emissions, quite a few income properties worldwide have some type of environmental label such as BREEAM and LEED. The drawback identified in this labelling is that usually the investments required to get an ecolabel are high and the investor finds no direct evidence that it increases market value. However there is research on certified commercial properties (especially offices) that shows better performance in terms of occupancy rate and rental cost (Warren-Myers, 2012). Additionally, Sayce (2013) says that the certification only provides a quick reference point i.e. the lack of a certificate does not indicate that a building is not sustainable or efficient. Based on the issues described above, this research compares important components of the development stages such as investments costs, concept/ strategy development as well as the current investor income and property value. The subjects for this analysis are a shopping centre designed with passive cooling/bioclimatic strategies evaluated at the decision making stage, a certified regional shopping centre and a non-certified standard regional shopping centre. Moreover, the proposal intends to provide decision makers with some tools for linking green design features to the investment analysis in order to optimize the decision making process when looking into cost savings and design quality.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The influence of the main cereal and supplemental fat of the diet on productive performance and egg quality was studied in 756 brown-egg laying hens from 22 to 54 weeks of age. The experiment was conducted as a completely randomized design with 9 treatments arranged factorially with 3 cereals (dented corn, soft wheat, and barley) and 3 types of fat [soy oil (SBO), acidulated soapstocks (AOS), and lard].

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In overhead conductor rail lines, aluminium beams are usually mounted with support spacing between 8 and 12 meters, to limit the maximum vertical deflection in the center of the span. This small support spacing limits the use of overhead conductor rail to tunnels, therefore it has been used almost exclusively in metropolitan networks, with operation speeds below 110 km/h. Nevertheless, due to the lower cost of maintenance required for this electrification system, some railway administrations are beginning to install it in some tunnels on long-distance lines, requesting higher operation speeds [1]. Some examples are the Barcelona and Madrid suburban networks (Spain), and recent lines in Turkey and Malaysia. In order to adapt the design of the overhead conductor for higher speeds (V > 160 km/h), particular attention must be paid to the geometry of the conductor rail in critical zones as overlaps, crossings and, especially, transitions between conductor rail and conventional catenary, since the use of overhead conductor rail is limited to tunnels, as already mentioned. This paper describes simulation techniques developed in order to take into account these critical zones. Furthermore, some specific simulations results are presented that have been used to analyze and optimizes the geometry of this special zones to get a better current collection quality, in a real suburban network. This paper presents the work undertaken by the Railways Technology Research Centre (CITEF), having over 10 years of experience in railways research [1-4].

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Communications Based Train Control Systems require high quality radio data communications for train signaling and control. Actually most of these systems use 2.4GHz band with proprietary radio transceivers and leaky feeder as distribution system. All them demand a high QoS radio network to improve the efficiency of railway networks. We present narrow band, broad band and data correlated measurements taken in Madrid underground with a transmission system at 2.4 GHz in a test network of 2 km length in subway tunnels. The architecture proposed has a strong overlap in between cells to improve reliability and QoS. The radio planning of the network is carefully described and modeled with narrow band and broadband measurements and statistics. The result is a network with 99.7% of packets transmitted correctly and average propagation delay of 20ms. These results fulfill the specifications QoS of CBTC systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Customer evolution and changes in consumers, determine the fact that the quality of the interface between marketing and sales may represent a true competitive advantage for the firm. Building on multidimensional theoretical and empirical models developed in Europe and on social network analysis, the organizational interface between the marketing and sales departments of a multinational high-growth company with operations in Argentina, Uruguay and Paraguay is studied. Both, attitudinal and social network measures of information exchange are used to make operational the nature and quality of the interface and its impact on performance. Results show the existence of a positive relationship of formalization, joint planning, teamwork, trust and information transfer on interface quality, as well as a positive relationship between interface quality and business performance. We conclude that efficient design and organizational management of the exchange network are essential for the successful performance of consumer goods companies that seek to develop distinctive capabilities to adapt to markets that experience vertiginous changes

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Simultaneous Multiple Surfaces (SMS) was developed as a design method in Nonimaging Optics during the 90s. Later, the method was extended for designing Imaging Optics. We present an overview of the method applied to imaging optics in planar (2D) geometry and compare the results with more classical designs based on achieving aplanatism of different orders. These classical designs are also viewed as particular cases of SMS designs. Systems with up to 4 aspheric surfaces are shown. The SMS design strategy is shown to perform always better than the classical design (in terms of image quality). Moreover, the SMS method is a direct method, i.e., it is not based in multi-parametric optimization techniques. This gives the SMS method an additional interest since it can be used for exploring solutions where the multiparameter techniques can get lost because of the multiple local minima

Relevância:

30.00% 30.00%

Publicador:

Resumo:

One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo general de esta Tesis Doctoral fue estudiar la influencia de diversos factores nutricionales y de manejo sobre la productividad y la calidad del huevo en gallinas ponedoras comerciales rubias. Los factores estudiados fueron: 1) Cereal principal y tipo de grasa en la dieta; 2) Nivel de proteína bruta y grasa en la dieta; 3) Nivel energético de la dieta; 4) Peso vivo al inicio del período de puesta. En el experimento 1, la influencia del cereal principal en la dieta y el tipo de grasa suplementada en la dieta sobre los parámetros productivos y la calidad del huevo fue estudiado en 756 gallinas rubias de la estirpe Lohmann desde la sem 22 hasta las 54 de vida. El experimento se realizó mediante un diseño completamente al azar con 9 tratamientos ordenados factorialmente, con 3 cereales bases (maíz, trigo blando y cebada) y 3 tipos de grasa que variaban en su contenido en ácido linoléico (aceite de soja, oleína vegetal mezcla y manteca). Todas las dietas satisfacian las recomendaciones nutricionales para gallinas ponedoras rubias según el NRC (1994) y FEDNA (2008). La unidad experimental fue la jaula para todas las variables. Cada tratamiento fue replicado 4 veces, y la unidad experimental estuvo formada por 21 gallinas alojadas en grupos de 7. Las dietas fueron formuladas con un contenido nutritivo similar, excepto para el ácido linoléico, que varió en función del tipo de cereal y grasa utilizado. Así, dependiendo de la combinación de estos elementos el contenido de este ácido graso varió desde un 0.8% (dieta trigo-manteca) a un 3.4% (dieta maíz-aceite de soja). Este rango de ácido linoléico permitió estimar el nivel mínimo de este nutriente en el pienso que permite maximizar el peso del huevo. Los parámetros productivos y la calidad del huevo se controlaron cada 28 días y el peso de las aves se midió individualmente al inicio y al final del experimento con el objetivo de estudiar la variación en el peso vivo de los animales. No se observaron interacciones entre el tipo de cereal y grasa en la dieta para ninguna de las variables productivas estudiadas. Los tratamientos experimentales no afectaron a las principales variables productivas (porcentaje de puesta, peso del huevo y masa de huevo). Sin embargo, la ganancia de peso fue mayor en gallinas alimentadas con maíz o trigo que las gallinas alimentadas con cebada (243 vs. 238 vs. 202 g, respectivamente; P< 0.05). En el mismo sentido, las gallinas alimentadas con manteca obtuvieron una mayor ganancia de peso que las gallinas alimentadas con aceite de soja u oleína vegetal (251 vs. 221 vs. 210 g, respectivamente; P< 0.05). En cuanto a las variables estudiadas en relación con la calidad del huevo, ninguna de las variables estudiadas se vio afectada por el tratamiento experimental, salvo la pigmentación de la yema. Así, las gallinas alimentadas con maíz como cereal principal obtuvieron una mayor puntuación en relación con la escala de color que las gallinas alimentadas con trigo y con cebada (9.0 vs. 8.3 vs. 8.3, respectivamente; P< 0.001). La pigmentación de la yema también se vio afectada por el tipo de grasa en la dieta, así, las gallinas alimentadas con manteca obtuvieron una mayor puntuación de color en relación con la escala de color que las gallinas alimentadas con aceite de soja u oleína vegetal (8.9 vs. 8.5 vs. 8.2, respectivamente; P< 0.001). La influencia del contenido en ácido linoléico respecto al peso de huevo y masa de huevo fue mayor a medida que el contenido de dicho ácido graso se redujo en la dieta. Así, la influencia de la dieta en los radios peso de huevo/g linoléico ingerido y masa de huevo/g linoléico ingerido fue significativamente mayor a medida que el contenido en dicho ácido graso disminuyo en la dieta (P< 0.001). Los resultados del ensayo indican que las gallinas ponedoras rubias no necesitan más de un 1.0% de ácido linoléico en la dieta para maximizar la producción y el tamaño del huevo. Además, se pudo concluir que los 3 cereales y las 3 grasas utilizadas pueden sustituirse en la dieta sin ningún perjuicio productivo o referente a la calidad del huevo siempre que los requerimientos de los animales sean cubiertos. En el experimento 2, la influencia del nivel de proteína bruta y el contenido de grasa de la dieta sobre los parámetros productivos y la calidad del huevo fue estudiado en 672 gallinas ponedoras rubias de la estirpe Lohmann entre las sem 22 y 50 de vida. El experimento fue conducido mediante un diseño completamente al azar con 8 tratamientos ordenados factorialmente con 4 dietas y 2 pesos vivos distintos al inicio de puesta (1592 vs. 1860g). Tres de esas dietas diferían en el contenido de proteína bruta (16.5%, 17.5% y 18.5%) y tenían un contenido en grasa añadida de 1.8%. La cuarta dieta tenía el nivel proteico más elevado (18.5%) pero fue suplementada con 3.6% de grasa añadida en vez de 1.8%. Cada tratamiento fue replicado 4 veces y la unidad experimental consistió en 21 gallinas alojadas dentro de grupos de 7 animales en 3 jaulas contiguas. Todas las dietas fueron isocalóricas (2750 kcal EMAn/kg) y cubrieron las recomendaciones en aminoácidos para gallinas ponedoras rubias (Arg, Ile, Lys, Met, Thr, Trp, TSAA y Val) según el NRC (1994) y FEDNA (2008). Los efectos de los tratamientos sobre las variables productivas y la calidad de huevo fueron estudiados cada 28 días. La dieta no afecto a ninguna de las variables productivas estudiadas a lo largo del período productivo. Sin embargo, el peso inicial origino que las gallinas pesadas consumieran más (120.6 vs. 113.9 g; P< 0.001), obtuvieran un porcentaje de puesta mayor (92.5 vs. 89.8%; P< 0.01) y un peso del huevo mayor (64.9 vs. 62.4 g; P< 0.001) que las gallinas ligeras. El peso inicial de las gallinas no afecto al IC por kg de huevo ni a la mortalidad, sin embargo, la ganancia de peso fue mayor (289 vs. 233 g; P< 0.01) y el IC por docena de huevos fue mejor (1.52 vs. 1.57; P< 0.01) en las gallinas ligeras que en las gallinas pesadas. En cuanto a la calidad del huevo, la dieta no influyó sobre ninguna de las variables estudiadas. Los resultados del ensayo muestran que las gallinas ponedoras rubias, independientemente de su peso vivo al inicio de la puesta, no necesitan una cantidad de proteína bruta superior a 16.5% para maximizar la producción, asegurando que las dietas cubren los requerimientos en AA indispensables. Asimismo, se puedo concluir que las gallinas con un peso más elevado al inicio de puesta producen más masa de huevo que las gallinas con un peso más bajo debido a que las primeras producen más cantidad de huevos y más pesados. Sin embargo, ambos grupos de peso obtuvieron el mismo IC por kg de huevo y las gallinas más livianas en peso obtuvieron un mejor IC por docena de huevo que las pesadas. En el experimento 3 la influencia de la concentración energética sobre los parámetros productivos y la calidad del huevo fue estudiada en 520 gallinas ponedoras rubias de la estirpe Hy-Line en el período 24-59 sem de vida. Se utilizaron 8 tratamientos ordenados factorialmente con 4 dietas que variaron en el contenido energético (2650, 2750, 2850 y 2950 kcal EMAn/kg) y 2 pesos vivos distintos al inicio del período de puesta (1733 vs. 1606g). Cada tratamiento fue replicado 5 veces y la unidad experimental consistió en una jaula con 13 aves. Todas las dietas se diseñaron para que tuvieran una concentración nutritiva similar por unidad energética. Las variables productivas y de calidad de huevo se estudiaron mediante controles cada 28 días desde el inicio del experimento. No se observaron interacciones entre el nivel energético y el peso inicial del ave para ninguna de las variables estudiadas. Un incremento en la concentración energética de la dieta incrementó la producción de huevos (88.8 % vs. 91.2 % vs. 92.7 % vs. 90.5 %), masa de huevo (56.1 g/d vs. 58.1 g/d vs. 58.8 g/d vs. 58.1 g/d), y eficiencia energética (5.42 vs. 5.39 vs. 5.38 vs. 5.58 kcal EMA/g huevo) de forma lineal y cuadrática (P< 0.05) y afectó significativamente a la ganancia de peso (255 g vs. 300 g vs. 325 g vs. 359 g; P<0.05) . Sin embargo, un incremento en la concentración energética provocó un descenso lineal en el consumo de los animales (115 g vs. 114 g vs. 111 g vs. 110 g; P< 0.001) y un descenso lineal y cuadrático en el IC por kg de huevo (2.05 vs. 1.96 vs. 1.89 vs. 1.89; P< 0.01). En cuanto a la calidad del huevo, un incremento en el contenido energético de la dieta provocó una reducción en la calidad del albumen de forma lineal en forma de reducción de Unidades Haugh (88.4 vs. 87.8 vs. 86.3 vs. 84.7; P< 0.001), asimismo el incremento de energía redujo de forma lineal la proporción relativa de cáscara en el huevo (9.7 vs. 9.6 vs. 9.6 vs. 9.5; P< 0.001). Sin embargo, el incremento energético propició un incremento lineal en la pigmentación de la yema del huevo (7.4 vs. 7.4 vs. 7.6 vs. 7.9; P< 0.001). El peso vivo al inicio de la prueba afecto a las variables productivas y a la calidad del huevo. Así, los huevos procedentes de gallinas pesadas al inicio de puesta tuvieron una mayor proporción de yema (25.7 % vs. 25.3 %; P< 0.001) y menor de albumen (64.7 vs. 65.0; P< 0.01) y cáscara (9.5 vs. 9.6; P< 0.05) respecto de los huevos procedentes de gallinas ligeras. Consecuentemente, el ratio yema:albumen fue mayor (0.40 vs. 0.39; P< 0.001) para las gallinas pesadas. Según los resultados del experimento se pudo concluir que las actuales gallinas ponedoras rubias responden con incrementos en la producción y en la masa del huevo a incrementos en la concentración energética hasta un límite que se sitúa en 2850 kcal EMAn/kg. Asimismo, los resultados obtenidos entre los 2 grupos de peso al inicio de puesta demostraron que las gallinas pesadas al inicio de puesta tienen un mayor consumo y producen huevos más pesados, con el consecuente aumento de la masa del huevo respecto de gallinas más ligeras. Sin embargo, el IC por kg de huevo fue el mismo en ambos grupos de gallinas y el IC por docena de huevo fue mejor en las gallinas ligeras. Asimismo, la eficiencia energética fue mejor en las gallinas ligeras. Abstract The general aim of this PhD Thesis was to study the influence of different nutritional factors and management on the productivity and egg quality of comercial Brown laying hens. The factor studied were: 1) The effect of the main cereal and type of fat of the diet; 2) The effect of crude protein and fat content of the diet; 3) The effect of energy concentration of the diet; 4) The effect of initial body weight of the hens at the onset of lay period. In experiment 1, the influence of the main cereal and type of supplemental fat in the diet on productive performance and egg quality of the eggs was studied in 756 Lohmann brown-egg laying hens from 22 to 54 wk of age. The experiment was conducted as a completely randomized design with 9 treatments arranged factorially with 3 cereals (dented corn, soft wheat, and barley) and 3 types of fat (soy oil, acidulated vegetable soapstocks, and lard). Each treatment was replicated 4 times (21 hens per replicate). All diets were formulated according to NRC (1994) and FEDNA (2008) to have similar nutrient content except for linoleic acid that ranged from 0.8 (wheat-lard diet) to 3.4% (corn-soy bean oil) depending on the combination of cereal and fat source used. This approach will allow to estimate the minimum level of linoleic acid in the diets that maximizes egg weight. Productive performance and egg quality traits were recorded every 28 d and BW of the hens was measured individually at the beginning and at the end of the experiment. No significant interactions between main factors were detected for any of the variables studied. Egg production, egg weight, and egg mass were not affected by dietary treatment. Body weight gain was higher (243 vs. 238 vs. 202 g; P<0.05) for hens fed corn or wheat than for hens fed barley and also for hens fed lard than for hens fed soy oil or acidulated vegetable soapstocks (251 vs. 221 vs. 210 g; P< 0.05). Egg quality was not influenced by dietary treatment except for yolk color that was greater (9.0 vs. 8.3 vs. 8.3; P< 0.001) for hens fed corn than for hens fed wheat or barley and for hens fed lard than for hens fed soy oil or acidulated vegetable soapstocks (8.9 vs. 8.5 vs. 8.2, respectivamente; P< 0.001). The influence of linoleic acid on egg weight and egg mass was higher when the fatty acid was reduced in the diet. Thus, the influence of the diet in egg weight/g linoleic acid intake and egg mass/g linolec acid intake was higher when the amount of this fatty acid decreased in the diet (P< 0.001). It is concluded that brown egg laying hens do not need more than 1.0% of linoleic acid in the diet (1.16 g/hen/d) to maximize egg production and egg size. The 3 cereals and the 3 fat sources tested can replace each other in the diet provided that the linoleic acid requirements to maximize egg size are met. In experiment 2, the influence of CP and fat content of the diet on performance and egg quality traits was studied in 672 Lohmann brown egg-laying hens from 22 to 50 wk of age. The experiment was conducted as a completely randomized design with 8 treatments arranged factorially with 4 diets and 2 initial BW of the hens (1,592 vs. 1,860 g). Three of these diets differed in the CP content (16.5, 17.5, and 18.5%) and included 1.8% added fat. The fourth diet had also 18.5% CP but was supplemented with 3.6% fat instead of 1.8% fat. Each treatment was replicated 4 times and the experimental unit consisted of 21 hens allocated in groups of 7 in 3 adjacent cages. All diets were isocaloric (2,750 kcal AME/kg) and met the recommendations of brown egg-laying hens for digestible Arg, Ile, Lys, Met, Thr, Trp, TSAA, and Val. Productive performance and egg quality were recorded by replicate every 28-d. For the entire experimental period, diet did not affect any of the productive performance traits studied but the heavier hens had higher ADFI (120.6 vs. 113.9g; P< 0.001), egg production (92.5 vs. 89.8%; P< 0.01), and egg weight (64.9 vs. 62.4g; P< 0.001) than the lighter hens. Initial BW did not affect feed conversion per kilogram of eggs or hen mortality but BW gain was higher (289 vs. 233g; P< 0.01) and FCR per dozen of eggs was better (1.52 vs. 1.57; P< 0.01) for the lighter than for the heavier hens. None of the egg quality variables studied was affected by dietary treatment or initial BW of the hens. It is concluded that brown egg-laying hens, irrespective of their initial BW, do not need more than 16.5% CP to maximize egg production provided that the diet meet the requirements for key indispensable amino acids. Heavier hens produce more eggs that are larger than lighter hens but feed efficiency per kilogram of eggs is not affected. In experiment 3, the influence of AMEn concentration of the diet on productive performance and egg quality traits was studied in 520 Hy-Line brown egg-laying hens differing in initial BW from 24 to 59 wks of age. There were 8 treatments arranged factorially with 4 diets varying in energy content (2,650, 2,750, 2,850, and 2,950 kcal AMEn/kg) and 2 initial BW of the hens (1,733 vs. 1,606 g). Each treatment was replicated 5 times (13 hens per replicate) and all diets had similar nutrient content per unit of energy. No interactions between energy content of the diet and initial BW of the hens were detected for any trait. An increase in energy concentration of the diet increased (linear, P< 0.05; quadratic P< 0.05) egg production (88.8 % vs. 91.2 % vs. 92.7 % vs. 90.5 %), egg mass (56.1 g/d vs. 58.1 g/d vs. 58.8 g/d vs. 58.1 g/d), energy efficiency (5.42 vs. 5.39 vs. 5.38 vs. 5.58 kcal AMEn/g of egg), and BW gain (255 g vs. 300 g vs. 325 g vs. 359 g; P<0.05) but decreased ADFI (115 g vs. 114 g vs. 111 g vs. 110 g; P< linear, P< 0.001) and FCR per kg of eggs (2.05 vs. 1.96 vs. 1.89 vs. 1.89; linear, P< 0.01; quadratic P< 0.01). An increase in energy content of the diet reduced Haugh units (88.4 vs. 87.8 vs. 86.3 vs. 84.7; P< 0.01) and the proportion of shell in the egg (9.7 vs. 9.6 vs. 9.6 vs. 9.5; P< 0.001). Feed intake (114.6 vs. 111.1 g/hen per day), AMEn intake (321 vs. 311 kcal/hen per day), egg weight (64.2 vs. 63.0 g), and egg mass (58.5 vs. 57.0 g) were higher for the heavier than for the lighter hens (P<0.01) but FCR per kg of eggs and energy efficiency were not affected. Eggs from the heavier hens had higher proportion of yolk (25.7 % vs. 25.3 %; P< 0.001) and lower of albumen (64.7 vs. 65.0; P< 0.01) and shell (9.5 vs. 9.6; P< 0.05) than eggs from the lighter hens. Consequently, the yolk to albumen ratio was higher (0.40 vs. 0.39; P< 0.001) for the heavier hens. It is concluded that brown egg-laying hens respond with increases in egg production and egg mass, to increases in AMEn concentration of the diet up to 2,850 kcal/kg. Heavy hens had higher feed intake and produced heavier eggs and more egg mass than light hens. However, energy efficiency was better for the lighter hens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Classical imaging optics has been developed over centuries in many areas, such as its paraxial imaging theory and practical design methods like multi-parametric optimization techniques. Although these imaging optical design methods can provide elegant solutions to many traditional optical problems, there are more and more new design problems, like solar concentrator, illumination system, ultra-compact camera, etc., that require maximum energy transfer efficiency, or ultra-compact optical structure. These problems do not have simple solutions from classical imaging design methods, because not only paraxial rays, but also non-paraxial rays should be well considered in the design process. Non-imaging optics is a newly developed optical discipline, which does not aim to form images, but to maximize energy transfer efficiency. One important concept developed from non-imaging optics is the “edge-ray principle”, which states that the energy flow contained in a bundle of rays will be transferred to the target, if all its edge rays are transferred to the target. Based on that concept, many CPC solar concentrators have been developed with efficiency close to the thermodynamic limit. When more than one bundle of edge-rays needs to be considered in the design, one way to obtain solutions is to use SMS method. SMS stands for Simultaneous Multiple Surface, which means several optical surfaces are constructed simultaneously. The SMS method was developed as a design method in Non-imaging optics during the 90s. The method can be considered as an extension to the Cartesian Oval calculation. In the traditional Cartesian Oval calculation, one optical surface is built to transform an input wave-front to an out-put wave-front. The SMS method however, is dedicated to solve more than 1 wave-fronts transformation problem. In the beginning, only 2 input wave-fronts and 2 output wave-fronts transformation problem was considered in the SMS design process for rotational optical systems or free-form optical systems. Usually “SMS 2D” method stands for the SMS procedure developed for rotational optical system, and “SMS 3D” method for the procedure for free-form optical system. Although the SMS method was originally employed in non-imaging optical system designs, it has been found during this thesis that with the improved capability to design more surfaces and control more input and output wave-fronts, the SMS method can also be applied to imaging system designs and possesses great advantage over traditional design methods. In this thesis, one of the main goals to achieve is to further develop the existing SMS-2D method to design with more surfaces and improve the stability of the SMS-2D and SMS-3D algorithms, so that further optimization process can be combined with SMS algorithms. The benefits of SMS plus optimization strategy over traditional optimization strategy will be explained in details for both rotational and free-form imaging optical system designs. Another main goal is to develop novel design concepts and methods suitable for challenging non-imaging applications, e.g. solar concentrator and solar tracker. This thesis comprises 9 chapters and can be grouped into two parts: the first part (chapter 2-5) contains research works in the imaging field, and the second part (chapter 6-8) contains works in the non-imaging field. In the first chapter, an introduction to basic imaging and non-imaging design concepts and theories is given. Chapter 2 presents a basic SMS-2D imaging design procedure using meridian rays. In this chapter, we will set the imaging design problem from the SMS point of view, and try to solve the problem numerically. The stability of this SMS-2D design procedure will also be discussed. The design concepts and procedures developed in this chapter lay the path for further improvement. Chapter 3 presents two improved SMS 3 surfaces’ design procedures using meridian rays (SMS-3M) and skew rays (SMS-1M2S) respectively. The major improvement has been made to the central segments selections, so that the whole SMS procedures become more stable compared to procedures described in Chapter 2. Since these two algorithms represent two types of phase space sampling, their image forming capabilities are compared in a simple objective design. Chapter 4 deals with an ultra-compact SWIR camera design with the SMS-3M method. The difficulties in this wide band camera design is how to maintain high image quality meanwhile reduce the overall system length. This interesting camera design provides a playground for the classical design method and SMS design methods. We will show designs and optical performance from both classical design method and the SMS design method. Tolerance study is also given as the end of the chapter. Chapter 5 develops a two-stage SMS-3D based optimization strategy for a 2 freeform mirrors imaging system. In the first optimization phase, the SMS-3D method is integrated into the optimization process to construct the two mirrors in an accurate way, drastically reducing the unknown parameters to only few system configuration parameters. In the second optimization phase, previous optimized mirrors are parameterized into Qbfs type polynomials and set up in code V. Code V optimization results demonstrates the effectiveness of this design strategy in this 2-mirror system design. Chapter 6 shows an etendue-squeezing condenser optics, which were prepared for the 2010 IODC illumination contest. This interesting design employs many non-imaging techniques such as the SMS method, etendue-squeezing tessellation, and groove surface design. This device has theoretical efficiency limit as high as 91.9%. Chapter 7 presents a freeform mirror-type solar concentrator with uniform irradiance on the solar cell. Traditional parabolic mirror concentrator has many drawbacks like hot-pot irradiance on the center of the cell, insufficient use of active cell area due to its rotational irradiance pattern and small acceptance angle. In order to conquer these limitations, a novel irradiance homogenization concept is developed, which lead to a free-form mirror design. Simulation results show that the free-form mirror reflector has rectangular irradiance pattern, uniform irradiance distribution and large acceptance angle, which confirm the viability of the design concept. Chapter 8 presents a novel beam-steering array optics design strategy. The goal of the design is to track large angle parallel rays by only moving optical arrays laterally, and convert it to small angle parallel output rays. The design concept is developed as an extended SMS method. Potential applications of this beam-steering device are: skylights to provide steerable natural illumination, building integrated CPV systems, and steerable LED illumination. Conclusion and future lines of work are given in Chapter 9. Resumen La óptica de formación de imagen clásica se ha ido desarrollando durante siglos, dando lugar tanto a la teoría de óptica paraxial y los métodos de diseño prácticos como a técnicas de optimización multiparamétricas. Aunque estos métodos de diseño óptico para formación de imagen puede aportar soluciones elegantes a muchos problemas convencionales, siguen apareciendo nuevos problemas de diseño óptico, concentradores solares, sistemas de iluminación, cámaras ultracompactas, etc. que requieren máxima transferencia de energía o dimensiones ultracompactas. Este tipo de problemas no se pueden resolver fácilmente con métodos clásicos de diseño porque durante el proceso de diseño no solamente se deben considerar los rayos paraxiales sino también los rayos no paraxiales. La óptica anidólica o no formadora de imagen es una disciplina que ha evolucionado en gran medida recientemente. Su objetivo no es formar imagen, es maximazar la eficiencia de transferencia de energía. Un concepto importante de la óptica anidólica son los “rayos marginales”, que se pueden utilizar para el diseño de sistemas ya que si todos los rayos marginales llegan a nuestra área del receptor, todos los rayos interiores también llegarán al receptor. Haciendo uso de este principio, se han diseñado muchos concentradores solares que funcionan cerca del límite teórico que marca la termodinámica. Cuando consideramos más de un haz de rayos marginales en nuestro diseño, una posible solución es usar el método SMS (Simultaneous Multiple Surface), el cuál diseña simultáneamente varias superficies ópticas. El SMS nació como un método de diseño para óptica anidólica durante los años 90. El método puede ser considerado como una extensión del cálculo del óvalo cartesiano. En el método del óvalo cartesiano convencional, se calcula una superficie para transformar un frente de onda entrante a otro frente de onda saliente. El método SMS permite transformar varios frentes de onda de entrada en frentes de onda de salida. Inicialmente, sólo era posible transformar dos frentes de onda con dos superficies con simetría de rotación y sin simetría de rotación, pero esta limitación ha sido superada recientemente. Nos referimos a “SMS 2D” como el método orientado a construir superficies con simetría de rotación y llamamos “SMS 3D” al método para construir superficies sin simetría de rotación o free-form. Aunque el método originalmente fue aplicado en el diseño de sistemas anidólicos, se ha observado que gracias a su capacidad para diseñar más superficies y controlar más frentes de onda de entrada y de salida, el SMS también es posible aplicarlo a sistemas de formación de imagen proporcionando una gran ventaja sobre los métodos de diseño tradicionales. Uno de los principales objetivos de la presente tesis es extender el método SMS-2D para permitir el diseño de sistemas con mayor número de superficies y mejorar la estabilidad de los algoritmos del SMS-2D y SMS-3D, haciendo posible combinar la optimización con los algoritmos. Los beneficios de combinar SMS y optimización comparado con el proceso de optimización tradicional se explican en detalle para sistemas con simetría de rotación y sin simetría de rotación. Otro objetivo importante de la tesis es el desarrollo de nuevos conceptos de diseño y nuevos métodos en el área de la concentración solar fotovoltaica. La tesis está estructurada en 9 capítulos que están agrupados en dos partes: la primera de ellas (capítulos 2-5) se centra en la óptica formadora de imagen mientras que en la segunda parte (capítulos 6-8) se presenta el trabajo del área de la óptica anidólica. El primer capítulo consta de una breve introducción de los conceptos básicos de la óptica anidólica y la óptica en formación de imagen. El capítulo 2 describe un proceso de diseño SMS-2D sencillo basado en los rayos meridianos. En este capítulo se presenta el problema de diseñar un sistema formador de imagen desde el punto de vista del SMS y se intenta obtener una solución de manera numérica. La estabilidad de este proceso se analiza con detalle. Los conceptos de diseño y los algoritmos desarrollados en este capítulo sientan la base sobre la cual se realizarán mejoras. El capítulo 3 presenta dos procedimientos para el diseño de un sistema con 3 superficies SMS, el primero basado en rayos meridianos (SMS-3M) y el segundo basado en rayos oblicuos (SMS-1M2S). La mejora más destacable recae en la selección de los segmentos centrales, que hacen más estable todo el proceso de diseño comparado con el presentado en el capítulo 2. Estos dos algoritmos representan dos tipos de muestreo del espacio de fases, su capacidad para formar imagen se compara diseñando un objetivo simple con cada uno de ellos. En el capítulo 4 se presenta un diseño ultra-compacto de una cámara SWIR diseñada usando el método SMS-3M. La dificultad del diseño de esta cámara de espectro ancho radica en mantener una alta calidad de imagen y al mismo tiempo reducir drásticamente sus dimensiones. Esta cámara es muy interesante para comparar el método de diseño clásico y el método de SMS. En este capítulo se presentan ambos diseños y se analizan sus características ópticas. En el capítulo 5 se describe la estrategia de optimización basada en el método SMS-3D. El método SMS-3D calcula las superficies ópticas de manera precisa, dejando sólo unos pocos parámetros libres para decidir la configuración del sistema. Modificando el valor de estos parámetros se genera cada vez mediante SMS-3D un sistema completo diferente. La optimización se lleva a cabo variando los mencionados parámetros y analizando el sistema generado. Los resultados muestran que esta estrategia de diseño es muy eficaz y eficiente para un sistema formado por dos espejos. En el capítulo 6 se describe un sistema de compresión de la Etendue, que fue presentado en el concurso de iluminación del IODC en 2010. Este interesante diseño hace uso de técnicas propias de la óptica anidólica, como el método SMS, el teselado de las lentes y el diseño mediante grooves. Este dispositivo tiene un límite teórica en la eficiencia del 91.9%. El capítulo 7 presenta un concentrador solar basado en un espejo free-form con irradiancia uniforme sobre la célula. Los concentradores parabólicos tienen numerosas desventajas como los puntos calientes en la zona central de la célula, uso no eficiente del área de la célula al ser ésta cuadrada y además tienen ángulos de aceptancia de reducido. Para poder superar estas limitaciones se propone un novedoso concepto de homogeneización de la irrandancia que se materializa en un diseño con espejo free-form. El análisis mediante simulación demuestra que la irradiancia es homogénea en una región rectangular y con mayor ángulo de aceptancia, lo que confirma la viabilidad del concepto de diseño. En el capítulo 8 se presenta un novedoso concepto para el diseño de sistemas afocales dinámicos. El objetivo del diseño es realizar un sistema cuyo haz de rayos de entrada pueda llegar con ángulos entre ±45º mientras que el haz de rayos a la salida sea siempre perpendicular al sistema, variando únicamente la posición de los elementos ópticos lateralmente. Las aplicaciones potenciales de este dispositivo son varias: tragaluces que proporcionan iluminación natural, sistemas de concentración fotovoltaica integrados en los edificios o iluminación direccionable con LEDs. Finalmente, el último capítulo contiene las conclusiones y las líneas de investigación futura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This article presents an alternative approach to the decision-making process in transport strategy design. The study explores the possibility of integrating forecasting, assessment and optimization procedures in support of a decision-making process designed to reach the best achievable scenario through mobility policies. Long-term evaluation, as required by a dynamic system such as a city, is provided by a strategic Land-Use and Transport Interaction (LUTI) model. The social welfare achieved by implementing mobility LUTI model policies is measured through a cost-benefit analysis and maximized through an optimization process throughout the evaluation period. The method is tested by optimizing a pricing policy scheme in Madrid on a cordon toll in a context requiring system efficiency, social equity and environmental quality. The optimized scheme yields an appreciable increase in social surplus through a relatively low rate compared to other similar pricing toll schemes. The results highlight the different considerations regarding mobility impacts on the case study area, as well as the major contributors to social welfare surplus. This leads the authors to reconsider the cost-analysis approach, as defined in the study, as the best option for formulating sustainability measures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The effect of location of fruit in canopies of hedgerow olive trees (Olea europaea L., cv. ‘Arbequina’) on quality of virgin oil was tested by analyzing oils extracted from different height layers and faces of 9 olive hedgerows (6 North-South oriented and 3 East-West). Although sensory attributes were not different other oil quality parameters may be significantly modified by fruit position. In some hedgerows, oils extracted from fruits harvested from higher layers exhibited significantly higher stability against oxidation, along with higher palmitic acid, linoleic acid and phenol contents, but lower oleic acid content. Oils extracted from fruits harvested from East and North facing hedgerows oriented North-South and East-West, respectively, exhibited higher oleic contents and lower saturated and polyunsaturated fatty acid contents. The mean phenol content of oils extracted from fruits from a North-South oriented hedgerow was significantly greater from one of the East-West oriented hedgerows. These findings may be relevant for the design of future olive hedgerows destined for olive oil production.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In watermelon crops in Southeastern Spain, important thermal differences appear during the first stages of plant development that can affect them. This work shows the effect of applying jasmonic acid and benzoic acid (JA+BA), inductors of systemic acquired resistance (SAR) and induced systemic resistance (ISR), respectively, on fruit quality parameters from a crop in a greenhouse in Southeastern Spain, where crops face a remarkable abiotic stress. We assessed two treatments of JA+BA, T1 (500+500 ppm), T2 (2000+2000 ppm) and a control test using an experimental design of randomized blocks with four replications. The results obtained for the parameters assessed (ºBrix, flesh firmness, rind thickness, polar and equatorial diameter) did not show statistically significant differences. The results showed that there was no metabolic cost in the plants when applying the assessed treatments of JA+BA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

It is easy to get frustrated at spoken conversational agents (SCAs), perhaps because they seem to be callous. By and large, the quality of human-computer interaction is affected due to the inability of the SCAs to recognise and adapt to user emotional state. Now with the mass appeal of artificially-mediated communication, there has been an increasing need for SCAs to be socially and emotionally intelligent, that is, to infer and adapt to their human interlocutors’ emotions on the fly, in order to ascertain an affective, empathetic and naturalistic interaction. An enhanced quality of interaction would reduce users’ frustrations and consequently increase their satisfactions. These reasons have motivated the development of SCAs towards including socio-emotional elements, turning them into affective and socially-sensitive interfaces. One barrier to the creation of such interfaces has been the lack of methods for modelling emotions in a task-independent environment. Most emotion models for spoken dialog systems are task-dependent and thus cannot be used “as-is” in different applications. This Thesis focuses on improving this, in which it concerns computational modeling of emotion, personality and their interrelationship for task-independent autonomous SCAs. The generation of emotion is driven by needs, inspired by human’s motivational systems. The work in this Thesis is organised in three stages, each one with its own contribution. The first stage involved defining, integrating and quantifying the psychological-based motivational and emotional models sourced from. Later these were transformed into a computational model by implementing them into software entities. The computational model was then incorporated and put to test with an existing SCA host, a HiFi-control agent. The second stage concerned automatic prediction of affect, which has been the main challenge towards the greater aim of infusing social intelligence into the HiFi agent. In recent years, studies on affect detection from voice have moved on to using realistic, non-acted data, which is subtler. However, it is more challenging to perceive subtler emotions and this is demonstrated in tasks such as labelling and machine prediction. In this stage, we attempted to address part of this challenge by considering the roles of user satisfaction ratings and conversational/dialog features as the respective target and predictors in discriminating contentment and frustration, two types of emotions that are known to be prevalent within spoken human-computer interaction. The final stage concerned the evaluation of the emotional model through the HiFi agent. A series of user studies with 70 subjects were conducted in a real-time environment, each in a different phase and with its own conditions. All the studies involved the comparisons between the baseline non-modified and the modified agent. The findings have gone some way towards enhancing our understanding of the utility of emotion in spoken dialog systems in several ways; first, an SCA should not express its emotions blindly, albeit positive. Rather, it should adapt its emotions to user states. Second, low performance in an SCA may be compensated by the exploitation of emotion. Third, the expression of emotion through the exploitation of prosody could better improve users’ perceptions of an SCA compared to exploiting emotions through just lexical contents. Taken together, these findings not only support the success of the emotional model, but also provide substantial evidences with respect to the benefits of adding emotion in an SCA, especially in mitigating users’ frustrations and ultimately improving their satisfactions. Resumen Es relativamente fácil experimentar cierta frustración al interaccionar con agentes conversacionales (Spoken Conversational Agents, SCA), a menudo porque parecen ser un poco insensibles. En general, la calidad de la interacción persona-agente se ve en cierto modo afectada por la incapacidad de los SCAs para identificar y adaptarse al estado emocional de sus usuarios. Actualmente, y debido al creciente atractivo e interés de dichos agentes, surge la necesidad de hacer de los SCAs unos seres cada vez más sociales y emocionalmente inteligentes, es decir, con capacidad para inferir y adaptarse a las emociones de sus interlocutores humanos sobre la marcha, de modo que la interacción resulte más afectiva, empática y, en definitiva, natural. Una interacción mejorada en este sentido permitiría reducir la posible frustración de los usuarios y, en consecuencia, mejorar el nivel de satisfacción alcanzado por los mismos. Estos argumentos justifican y motivan el desarrollo de nuevos SCAs con capacidades socio-emocionales, dotados de interfaces afectivas y socialmente sensibles. Una de las barreras para la creación de tales interfaces ha sido la falta de métodos de modelado de emociones en entornos independientes de tarea. La mayoría de los modelos emocionales empleados por los sistemas de diálogo hablado actuales son dependientes de tarea y, por tanto, no pueden utilizarse "tal cual" en diferentes dominios o aplicaciones. Esta tesis se centra precisamente en la mejora de este aspecto, la definición de modelos computacionales de las emociones, la personalidad y su interrelación para SCAs autónomos e independientes de tarea. Inspirada en los sistemas motivacionales humanos en el ámbito de la psicología, la tesis propone un modelo de generación/producción de la emoción basado en necesidades. El trabajo realizado en la presente tesis está organizado en tres etapas diferenciadas, cada una con su propia contribución. La primera etapa incluyó la definición, integración y cuantificación de los modelos motivacionales de partida y de los modelos emocionales derivados a partir de éstos. Posteriormente, dichos modelos emocionales fueron plasmados en un modelo computacional mediante su implementación software. Este modelo computacional fue incorporado y probado en un SCA anfitrión ya existente, un agente con capacidad para controlar un equipo HiFi, de alta fidelidad. La segunda etapa se orientó hacia el reconocimiento automático de la emoción, aspecto que ha constituido el principal desafío en relación al objetivo mayor de infundir inteligencia social en el agente HiFi. En los últimos años, los estudios sobre reconocimiento de emociones a partir de la voz han pasado de emplear datos actuados a usar datos reales en los que la presencia u observación de emociones se produce de una manera mucho más sutil. El reconocimiento de emociones bajo estas condiciones resulta mucho más complicado y esta dificultad se pone de manifiesto en tareas tales como el etiquetado y el aprendizaje automático. En esta etapa, se abordó el problema del reconocimiento de las emociones del usuario a partir de características o métricas derivadas del propio diálogo usuario-agente. Gracias a dichas métricas, empleadas como predictores o indicadores del grado o nivel de satisfacción alcanzado por el usuario, fue posible discriminar entre satisfacción y frustración, las dos emociones prevalentes durante la interacción usuario-agente. La etapa final corresponde fundamentalmente a la evaluación del modelo emocional por medio del agente Hifi. Con ese propósito se llevó a cabo una serie de estudios con usuarios reales, 70 sujetos, interaccionando con diferentes versiones del agente Hifi en tiempo real, cada uno en una fase diferente y con sus propias características o capacidades emocionales. En particular, todos los estudios realizados han profundizado en la comparación entre una versión de referencia del agente no dotada de ningún comportamiento o característica emocional, y una versión del agente modificada convenientemente con el modelo emocional propuesto. Los resultados obtenidos nos han permitido comprender y valorar mejor la utilidad de las emociones en los sistemas de diálogo hablado. Dicha utilidad depende de varios aspectos. En primer lugar, un SCA no debe expresar sus emociones a ciegas o arbitrariamente, incluso aunque éstas sean positivas. Más bien, debe adaptar sus emociones a los diferentes estados de los usuarios. En segundo lugar, un funcionamiento relativamente pobre por parte de un SCA podría compensarse, en cierto modo, dotando al SCA de comportamiento y capacidades emocionales. En tercer lugar, aprovechar la prosodia como vehículo para expresar las emociones, de manera complementaria al empleo de mensajes con un contenido emocional específico tanto desde el punto de vista léxico como semántico, ayuda a mejorar la percepción por parte de los usuarios de un SCA. Tomados en conjunto, los resultados alcanzados no sólo confirman el éxito del modelo emocional, sino xv que constituyen además una evidencia decisiva con respecto a los beneficios de incorporar emociones en un SCA, especialmente en cuanto a reducir el nivel de frustración de los usuarios y, en última instancia, mejorar su satisfacción.