12 resultados para pulse Al foil target

em Universidad Politécnica de Madrid


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aunque se conocen muchos métodos precisos para medidas de humedad puntuales, hasta hace muy poco, no existían métodos in situ para la medida del contenido de humedad a escala de metros o de kilómetros, importantes cuando pensamos a nivel de cuenca hidrográfica. La fibra óptica ha sido muy utilizada en el área de las comunicaciones. Sin embargo, entre sus aplicaciones más recientes, destaca la de su uso para medir la temperatura incluso en grandes distancias (hasta 10 km) y con una alta frecuencia temporal, lo que ha abierto un amplio abanico de posibilidades muy importantes en el seguimiento medioambiental (Selker et al. 2006a; 2006b, Tyler et al. 2008; Westhoff et al., 2007; Freifeld et al., 2008). La precisión en la medida puede alcanzar ± 0,2ºC en una distancia de ± 25 cm. El método utilizado en los ensayos explicados en esta comunicación es el denominado “Distributed Fiber Optic Temperature Measurement” (medida distribuida de la temperatura con fibra óptica) o DFOT, que consiste en emitir un impulso óptico con láser y medir en el tiempo la señal reflejada en diferentes puntos de la fibra. Este método se ha utilizado en el estudio de filtraciones de minas abandonadas (Selker et al. 2006a) y en proyectos relacionados con el cambio climático, como en el estudio del deshielo en glaciares y balances hídricos en pequeñas cuencas (Selker et al. 2006b). Además, en medios porosos, se ha usado, con buenos resultados para la detección de rotura de diques en presas (Perzlmaier et al. 2004a y 2004b) y para la detección de entrada de agua en vertederos urbanos con cubierta vegetal (Weiss, 2003b). Imhoff et al. (2006) en su revisión de técnicas de medidas de contenido de agua en el suelo destaca el uso del “DFOT heat pulse method” (método DFOT del pulso de calor).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The influence of nanosecond laser pulses applied by laser shock peening without absorbent coating (LSPwC) with a Q-switched Nd:YAG laser operating at a wavelength of λ = 1064 nm on 6082-T651 Al alloy has been investigated. The first portion of the present study assesses laser shock peening effect at two pulse densities on three-dimensional (3D) surface topography characteristics. In the second part of the study, the peening effect on surface texture orientation and micro-structure modification, i.e. the effect of surface craters due to plasma and shock waves, were investigated in both longitudinal (L) and transverse (T) directions of the laser-beam movement. In the final portion of the study, the changes of mechanical properties were evaluated with a residual stress profile and Vickers micro-hardness through depth variation in the near surface layer, whereas factorial design with a response surface methodology (RSM) was applied. The surface topographic and micro-structural effect of laser shock peening were characterised with optical microscopy, InfiniteFocus® microscopy and scanning electron microscopy (SEM). Residual stress evaluation based on a hole-drilling integral method confirmed higher compression at the near surface layer (33 μm) in the transverse direction (σmin) of laser-beam movement, i.e. − 407 ± 81 MPa and − 346 ± 124 MPa, after 900 and 2500 pulses/cm2, respectively. Moreover, RSM analysis of micro-hardness through depth distribution confirmed an increase at both pulse densities, whereas LSPwC-generated shock waves showed the impact effect of up to 800 μm below the surface. Furthermore, ANOVA results confirmed the insignificant influence of LSPwC treatment direction on micro-hardness distribution indicating essentially homogeneous conditions, in both L and T directions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A quasisteady model for the plasma ablated from a thick foil by a laser pulse, at low $lln $ and R /A i within a low, narrow range, is given (4, is absorbed intensity, /zL wavelength, R focalspot radius). An approximate analytical solution is given for the two-dimensional plasma dynamics. At large magnetic Reynolds number Rm, the morphology of the magnetic field shows features in agreement with recent results for high intensities. Current lines are open: electric current flows toward the spot near its axis, then turns and flows away. The efficiency of converting light energy into electric energy peaks at Rm- 1, both the validity of the model. and accuracy of the solution are discussed, The neighborhood of the spot boundary is analyzed in detail by extending classical Prandtl-Meyer results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El comercio electrónico ha experimentado un fuerte crecimiento en los últimos años, favorecido especialmente por el aumento de las tasas de penetración de Internet en todo el mundo. Sin embargo, no todos los países están evolucionando de la misma manera, con un espectro que va desde las naciones pioneras en desarrollo de tecnologías de la información y comunicaciones, que cuentan con una elevado porcentaje de internautas y de compradores online, hasta las rezagadas de rápida adopción en las que, pese a contar con una menor penetración de acceso, presentan una alta tasa de internautas compradores. Entre ambos extremos se encuentran países como España que, aunque alcanzó hace años una tasa considerable de penetración de usuarios de Internet, no ha conseguido una buena tasa de transformación de internautas en compradores. Pese a que el comercio electrónico ha experimentado importantes aumentos en los últimos años, sus tasas de crecimiento siguen estando por debajo de países con características socio-económicas similares. Para intentar conocer las razones que afectan a la adopción del comercio por parte de los compradores, la investigación científica del fenómeno ha empleado diferentes enfoques teóricos. De entre todos ellos ha destacado el uso de los modelos de adopción, proveniente de la literatura de adopción de sistemas de información en entornos organizativos. Estos modelos se basan en las percepciones de los compradores para determinar qué factores pueden predecir mejor la intención de compra y, en consecuencia, la conducta real de compra de los usuarios. Pese a que en los últimos años han proliferado los trabajos de investigación que aplican los modelos de adopción al comercio electrónico, casi todos tratan de validar sus hipótesis mediante el análisis de muestras de consumidores tratadas como un único conjunto, y del que se obtienen conclusiones generales. Sin embargo, desde el origen del marketing, y en especial a partir de la segunda mitad del siglo XIX, se considera que existen diferencias en el comportamiento de los consumidores, que pueden ser debidas a características demográficas, sociológicas o psicológicas. Estas diferencias se traducen en necesidades distintas, que sólo podrán ser satisfechas con una oferta adaptada por parte de los vendedores. Además, por contar el comercio electrónico con unas características particulares que lo diferencian del comercio tradicional –especialmente por la falta de contacto físico entre el comprador y el producto– a las diferencias en la adopción para cada consumidor se le añaden las diferencias derivadas del tipo de producto adquirido, que si bien habían sido consideradas en el canal físico, en el comercio electrónico cobran especial relevancia. A la vista de todo ello, el presente trabajo pretende abordar el estudio de los factores determinantes de la intención de compra y la conducta real de compra en comercio electrónico por parte del consumidor final español, teniendo en cuenta el tipo de segmento al que pertenezca dicho comprador y el tipo de producto considerado. Para ello, el trabajo contiene ocho apartados entre los que se encuentran cuatro bloques teóricos y tres bloques empíricos, además de las conclusiones. Estos bloques dan lugar a los siguientes ocho capítulos por orden de aparición en el trabajo: introducción, situación del comercio electrónico, modelos de adopción de tecnología, segmentación en comercio electrónico, diseño previo del trabajo empírico, diseño de la investigación, análisis de los resultados y conclusiones. El capítulo introductorio justifica la relevancia de la investigación, además de fijar los objetivos, la metodología y las fases seguidas para el desarrollo del trabajo. La justificación se complementa con el segundo capítulo, que cuenta con dos elementos principales: en primer lugar se define el concepto de comercio electrónico y se hace una breve retrospectiva desde sus orígenes hasta la situación actual en un contexto global; en segundo lugar, el análisis estudia la evolución del comercio electrónico en España, mostrando su desarrollo y situación presente a partir de sus principales indicadores. Este apartado no sólo permite conocer el contexto de la investigación, sino que además permite contrastar la relevancia de la muestra utilizada en el presente estudio con el perfil español respecto al comercio electrónico. Los capítulos tercero –modelos de adopción de tecnologías– y cuarto –segmentación en comercio electrónico– sientan las bases teóricas necesarias para abordar el estudio. En el capítulo tres se hace una revisión general de la literatura de modelos de adopción de tecnología y, en particular, de los modelos de adopción empleados en el ámbito del comercio electrónico. El resultado de dicha revisión deriva en la construcción de un modelo adaptado basado en los modelos UTAUT (Unified Theory of Acceptance and Use of Technology, Teoría unificada de la aceptación y el uso de la tecnología) y UTAUT2, combinado con dos factores específicos de adopción del comercio electrónico: el riesgo percibido y la confianza percibida. Por su parte, en el capítulo cuatro se revisan las metodologías de segmentación de clientes y productos empleadas en la literatura. De dicha revisión se obtienen un amplio conjunto de variables de las que finalmente se escogen nueve variables de clasificación que se consideran adecuadas tanto por su adaptación al contexto del comercio electrónico como por su adecuación a las características de la muestra empleada para validar el modelo. Las nueve variables se agrupan en tres conjuntos: variables de tipo socio-demográfico –género, edad, nivel de estudios, nivel de ingresos, tamaño de la unidad familiar y estado civil–, de comportamiento de compra – experiencia de compra por Internet y frecuencia de compra por Internet– y de tipo psicográfico –motivaciones de compra por Internet. La segunda parte del capítulo cuatro se dedica a la revisión de los criterios empleados en la literatura para la clasificación de los productos en el contexto del comercio electrónico. De dicha revisión se obtienen quince grupos de variables que pueden tomar un total de treinta y cuatro valores, lo que deriva en un elevado número de combinaciones posibles. Sin embargo, pese a haber sido utilizados en el contexto del comercio electrónico, no en todos los casos se ha comprobado la influencia de dichas variables respecto a la intención de compra o la conducta real de compra por Internet; por este motivo, y con el objetivo de definir una clasificación robusta y abordable de tipos de productos, en el capitulo cinco se lleva a cabo una validación de las variables de clasificación de productos mediante un experimento previo con 207 muestras. Seleccionando sólo aquellas variables objetivas que no dependan de la interpretación personal del consumidores y que determinen grupos significativamente distintos respecto a la intención y conducta de compra de los consumidores, se obtiene un modelo de dos variables que combinadas dan lugar a cuatro tipos de productos: bien digital, bien no digital, servicio digital y servicio no digital. Definidos el modelo de adopción y los criterios de segmentación de consumidores y productos, en el sexto capítulo se desarrolla el modelo completo de investigación formado por un conjunto de hipótesis obtenidas de la revisión de la literatura de los capítulos anteriores, en las que se definen las hipótesis de investigación con respecto a las influencias esperadas de las variables de segmentación sobre las relaciones del modelo de adopción. Este modelo confiere a la investigación un carácter social y de tipo fundamentalmente exploratorio, en el que en muchos casos ni siquiera se han encontrado evidencias empíricas previas que permitan el enunciado de hipótesis sobre la influencia de determinadas variables de segmentación. El capítulo seis contiene además la descripción del instrumento de medida empleado en la investigación, conformado por un total de 125 preguntas y sus correspondientes escalas de medida, así como la descripción de la muestra representativa empleada en la validación del modelo, compuesta por un grupo de 817 personas españolas o residentes en España. El capítulo siete constituye el núcleo del análisis empírico del trabajo de investigación, que se compone de dos elementos fundamentales. Primeramente se describen las técnicas estadísticas aplicadas para el estudio de los datos que, dada la complejidad del análisis, se dividen en tres grupos fundamentales: Método de mínimos cuadrados parciales (PLS, Partial Least Squares): herramienta estadística de análisis multivariante con capacidad de análisis predictivo que se emplea en la determinación de las relaciones estructurales de los modelos propuestos. Análisis multigrupo: conjunto de técnicas que permiten comparar los resultados obtenidos con el método PLS entre dos o más grupos derivados del uso de una o más variables de segmentación. En este caso se emplean cinco métodos de comparación, lo que permite asimismo comparar los rendimientos de cada uno de los métodos. Determinación de segmentos no identificados a priori: en el caso de algunas de las variables de segmentación no existe un criterio de clasificación definido a priori, sino que se obtiene a partir de la aplicación de técnicas estadísticas de clasificación. En este caso se emplean dos técnicas fundamentales: análisis de componentes principales –dado el elevado número de variables empleadas para la clasificación– y análisis clúster –del que se combina una técnica jerárquica que calcula el número óptimo de segmentos, con una técnica por etapas que es más eficiente en la clasificación, pero exige conocer el número de clústeres a priori. La aplicación de dichas técnicas estadísticas sobre los modelos resultantes de considerar los distintos criterios de segmentación, tanto de clientes como de productos, da lugar al análisis de un total de 128 modelos de adopción de comercio electrónico y 65 comparaciones multigrupo, cuyos resultados y principales consideraciones son elaboradas a lo largo del capítulo. Para concluir, el capítulo ocho recoge las conclusiones del trabajo divididas en cuatro partes diferenciadas. En primer lugar se examina el grado de alcance de los objetivos planteados al inicio de la investigación; después se desarrollan las principales contribuciones que este trabajo aporta tanto desde el punto de vista metodológico, como desde los punto de vista teórico y práctico; en tercer lugar, se profundiza en las conclusiones derivadas del estudio empírico, que se clasifican según los criterios de segmentación empleados, y que combinan resultados confirmatorios y exploratorios; por último, el trabajo recopila las principales limitaciones de la investigación, tanto de carácter teórico como empírico, así como aquellos aspectos que no habiendo podido plantearse dentro del contexto de este estudio, o como consecuencia de los resultados alcanzados, se presentan como líneas futuras de investigación. ABSTRACT Favoured by an increase of Internet penetration rates across the globe, electronic commerce has experienced a rapid growth over the last few years. Nevertheless, adoption of electronic commerce has differed from one country to another. On one hand, it has been observed that countries leading e-commerce adoption have a large percentage of Internet users as well as of online purchasers; on the other hand, other markets, despite having a low percentage of Internet users, show a high percentage of online buyers. Halfway between those two ends of the spectrum, we find countries such as Spain which, despite having moderately high Internet penetration rates and similar socio-economic characteristics as some of the leading countries, have failed to turn Internet users into active online buyers. Several theoretical approaches have been taken in an attempt to define the factors that influence the use of electronic commerce systems by customers. One of the betterknown frameworks to characterize adoption factors is the acceptance modelling theory, which is derived from the information systems adoption in organizational environments. These models are based on individual perceptions on which factors determine purchase intention, as a mean to explain users’ actual purchasing behaviour. Even though research on electronic commerce adoption models has increased in terms of volume and scope over the last years, the majority of studies validate their hypothesis by using a single sample of consumers from which they obtain general conclusions. Nevertheless, since the birth of marketing, and more specifically from the second half of the 19th century, differences in consumer behaviour owing to demographic, sociologic and psychological characteristics have also been taken into account. And such differences are generally translated into different needs that can only be satisfied when sellers adapt their offer to their target market. Electronic commerce has a number of features that makes it different when compared to traditional commerce; the best example of this is the lack of physical contact between customers and products, and between customers and vendors. Other than that, some differences that depend on the type of product may also play an important role in electronic commerce. From all the above, the present research aims to address the study of the main factors influencing purchase intention and actual purchase behaviour in electronic commerce by Spanish end-consumers, taking into consideration both the customer group to which they belong and the type of product being purchased. In order to achieve this goal, this Thesis is structured in eight chapters: four theoretical sections, three empirical blocks and a final section summarizing the conclusions derived from the research. The chapters are arranged in sequence as follows: introduction, current state of electronic commerce, technology adoption models, electronic commerce segmentation, preliminary design of the empirical work, research design, data analysis and results, and conclusions. The introductory chapter offers a detailed justification of the relevance of this study in the context of e-commerce adoption research; it also sets out the objectives, methodology and research stages. The second chapter further expands and complements the introductory chapter, focusing on two elements: the concept of electronic commerce and its evolution from a general point of view, and the evolution of electronic commerce in Spain and main indicators of adoption. This section is intended to allow the reader to understand the research context, and also to serve as a basis to justify the relevance and representativeness of the sample used in this study. Chapters three (technology acceptance models) and four (segmentation in electronic commerce) set the theoretical foundations for the study. Chapter 3 presents a thorough literature review of technology adoption modelling, focusing on previous studies on electronic commerce acceptance. As a result of the literature review, the research framework is built upon a model based on UTAUT (Unified Theory of Acceptance and Use of Technology) and its evolution, UTAUT2, including two specific electronic commerce adoption factors: perceived risk and perceived trust. Chapter 4 deals with client and product segmentation methodologies used by experts. From the literature review, a wide range of classification variables is studied, and a shortlist of nine classification variables has been selected for inclusion in the research. The criteria for variable selection were their adequacy to electronic commerce characteristics, as well as adequacy to the sample characteristics. The nine variables have been classified in three groups: socio-demographic (gender, age, education level, income, family size and relationship status), behavioural (experience in electronic commerce and frequency of purchase) and psychographic (online purchase motivations) variables. The second half of chapter 4 is devoted to a review of the product classification criteria in electronic commerce. The review has led to the identification of a final set of fifteen groups of variables, whose combination offered a total of thirty-four possible outputs. However, due to the lack of empirical evidence in the context of electronic commerce, further investigation on the validity of this set of product classifications was deemed necessary. For this reason, chapter 5 proposes an empirical study to test the different product classification variables with 207 samples. A selection of product classifications including only those variables that are objective, able to identify distinct groups and not dependent on consumers’ point of view, led to a final classification of products which consisted on two groups of variables for the final empirical study. The combination of these two groups gave rise to four types of products: digital and non-digital goods, and digital and non-digital services. Chapter six characterizes the research –social, exploratory research– and presents the final research model and research hypotheses. The exploratory nature of the research becomes patent in instances where no prior empirical evidence on the influence of certain segmentation variables was found. Chapter six also includes the description of the measurement instrument used in the research, consisting of a total of 125 questions –and the measurement scales associated to each of them– as well as the description of the sample used for model validation (consisting of 817 Spanish residents). Chapter 7 is the core of the empirical analysis performed to validate the research model, and it is divided into two separate parts: description of the statistical techniques used for data analysis, and actual data analysis and results. The first part is structured in three different blocks: Partial Least Squares Method (PLS): the multi-variable analysis is a statistical method used to determine structural relationships of models and their predictive validity; Multi-group analysis: a set of techniques that allow comparing the outcomes of PLS analysis between two or more groups, by using one or more segmentation variables. More specifically, five comparison methods were used, which additionally gives the opportunity to assess the efficiency of each method. Determination of a priori undefined segments: in some cases, classification criteria did not necessarily exist for some segmentation variables, such as customer motivations. In these cases, the application of statistical classification techniques is required. For this study, two main classification techniques were used sequentially: principal component factor analysis –in order to reduce the number of variables– and cluster analysis. The application of the statistical methods to the models derived from the inclusion of the various segmentation criteria –for both clients and products–, led to the analysis of 128 different electronic commerce adoption models and 65 multi group comparisons. Finally, chapter 8 summarizes the conclusions from the research, divided into four parts: first, an assessment of the degree of achievement of the different research objectives is offered; then, methodological, theoretical and practical implications of the research are drawn; this is followed by a discussion on the results from the empirical study –based on the segmentation criteria for the research–; fourth, and last, the main limitations of the research –both empirical and theoretical– as well as future avenues of research are detailed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad se estudia en numerosos campos cómo automatizar distintas tareas ejecutadas por aeronaves con tripulación humana. Estas tareas son en todos los casos muy costosos, debido al gran consumo de combustible, gran coste de adquisición y mantenimiento de la propia aeronave, todo ello sin contar el riesgo para los mismos tripulantes. Como ejemplo de estas tareas se puede incluir la vigilancia policial y fronteriza, revisiones de tendidos de alta tensión, la alerta temprana de incendios forestales y la medición de parámetros contaminantes. El objetivo de este proyecto es el diseño y la construcción de un prototipo electrónico empotrado basado en microcontrolador con núcleo C8051 de Silicon labs, que sea capaz de gobernar una aeronave de radiocontrol de forma transparente, de manera que en un futuro se pueda sustituir el propio aeromodelo, con la modificación de algunos parámetros, para poder incorporar sistemas de video o distintos medios de detección de variables. El prototipo seguirá una ruta confeccionada y transferida como un archivo de texto con un formato determinado que contendrá los datos necesarios para poder navegar mediante GPS. El trabajo con los modelos de motorización térmica (motores de combustión interna tipo glow, en este caso) resulta peligroso debido a la gran energía que son capaces de alcanzar. A fin de mantener la máxima seguridad durante la evolución del proyecto, se ha diseñado un proceso de tres partes independientes que permitan la correcta familiarización de los distintos componentes que se emplearán. Las fases son las siguientes: 1. Test y modelado de todos los componentes mediante pequeños montajes con protoboard de inserción y programas individuales. Se realizará mediante una tarjeta multipropósito que contendrá un microcontrolador similar en características, aunque de menor complejidad, al del prototipo final. 2. Integración de todos los componentes mediante una tarjeta especialmente diseñada que servirá de interfaz entre la tarjeta multipropósito y todo el hardware necesario para el control de un vehículo terrestre de iguales características (actuadores y motorización) al aeromodelo. 3. Diseño de un sistema embebido que concentre todos los subsistemas desarrollados en las fases anteriores y que integre todos los componentes necesarios para el gobierno de una aeronave de ala fija. ABSTRACT. Nowadays, the way of automating different tasks done by manned vehicles is studied. These tasks are any case very expensive, due to large fuel consumption, costs of aircraft buying, without taking into account the risk for human crew. As an example of these tasks, we can include policing or border surveillance, maintenance of high voltage lines, early warning of forest fire and measuring of pollution parameters. The target of this project is the design and construction of an embedded electronic prototype, based on a microcontroller with C8051 core from Silicon labs, and it will be able to controlling an aircraft transparently, in order that in the future the flying model could be changed with the modification of some parameters, and video or any variables detection systems could be added. The prototype will follow a designed and transferred path as an plain text file with a given format, that will contain all the necessary data for GPS navigation. Working with heat engine models (internal combustion engine, glow type, in this case) becomes dangerous due to the large energy that can be able to acquire. In order to keep the maximum safety level during the project evolution a three independent stages process have been designed, this allows familiarizing properly with the parts that will be used. The stages are as follows: 1. Test and modeling of all of the parts by little assemblies with through-hole protoboard and stand alone programs. It will be done with a multipurpose card which contains a microcontroller of similar characteristics, although less complex, of the final prototype. 2. Integrating of all of parts through a dedicated design card that will serve as interface between multipurpose card and all the necessary hardware for controlling a ground vehicle with the same characteristics (actuators and engine) of the flying model. 3. Embedded system designing that contains all the developed subsystems in the previous stages and integrates all the necessary parts for controlling a fixed-wing aircraft.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Actualmente existe un gran interés orientado hacia el mercado del gas natural. Son muchas las razones por las que este combustible se posiciona como uno de los más importantes dentro del panorama energético mundial. Además de que salvaría el hueco dejado por el carbón y el petróleo, supone una alternativa mucho más limpia que se podría desarrollar aún más tanto a nivel doméstico, industrial como en el mundo de los transportes. La industria del gas natural está cambiando rápidamente fundamentalmente por la aparición del gas no convencional y sus técnicas de extracción. Por lo que se está produciendo un cambio en la economía de la producción de gas así como en la dinámica y los movimientos del GNL a lo largo de todo el planeta. El propósito de este estudio es enfocar el estado del sector y mercado del gas natural en todo el mundo y de esta forma subrayar las principales regiones que marcan la tendencia general de los precios de todo el planeta. Además, este trabajo reflejará los pronósticos esperados para los próximos años así como un resumen de las tendencias que se han seguido hasta el momento. Particularmente, se centrará la atención en el movimiento hacia los sistemas basados en forma de hub que comenzaron en EE.UU. y que llegaron a Reino Unido y al continente Europeo a principios del S.XX. Esta tendencia es la que se pretende implantar en España con el fin de conseguir una mayor competitividad, flexibilidad y liquidez en los precios y en el sistema gasista. De esta forma, poco a poco se irá construyendo la estructura hacia un Mercado Único Europeo que es el objetivo final que plantean los organismos de los estados miembros. Sin embargo, para la puesta en marcha de este nuevo modelo es necesario realizar una serie de cambios en el sistema como la modificación de la Ley de Hidrocarburos, la designación de un Operador de Mercado, elaboración de una serie de reglas para regular el mercado así como fomentar la liquidez del mercado. Cuando tenga lugar el cambio regulatorio, la liquidez del sistema español incrementará y se dará la oportunidad de crear nuevas formas para balancear las carteras de gas y establecer nuevas estrategias para gestionar el riesgo. No obstante, antes de que se hagan efectivos los cambios en la legislación, se implantaría uno de los modelos planteados en el “Gas Target Model”, el denominado “Modelo de Asignación de Capacidad Implícita”. La introducción de este modelo sería un primer paso para la integración de un mercado de gas sin la necesidad de afrontar un cambio legislativo, lo que serviría de VIII impulso para alcanzar el “Modelo de Área de Mercado” que sería el mejor para el sistema gasista español y se conectaría ampliamente con el resto de mercados europeos. Las conclusiones del estudio en relación a la formación del nuevo modelo en forma de hub plantean la necesidad de aprovechar al máximo la nueva situación y conseguir implantar el hub lo antes posible para poder dotar al sistema de mayor competencia y liquidez. Además, el sistema español debe aprovechar su gran capacidad y moderna infraestructura para convertir al país en la entrada de gas del suroeste de Europa ampliando así la seguridad de suministro de los países miembros. Otra conclusión que se puede extraer del informe es la necesidad de ampliar el índice de penetración del gas en España e incentivar el consumo frente a otros combustibles fósiles como el carbón y el petróleo. Esto situaría al gas natural como la principal energía de respaldo con respecto a las renovables y permitiría disminuir los precios del kilovatio hora del gas natural. El estudio y análisis de la dinámica que se viene dando en la industria del gas en el mundo es fundamental para poder anticiparse y planear las mejores estrategias frente a los cambios que poco a poco irán modificando el sector y el mercado gasista. ABSTRACT There is a great deal of focus on the natural gas market at the moment. Whether you view natural gas as bridging the gap between coal/oil and an altogether cleaner solution yet to be determined, or as a destination fuel which will be used not only for heating and gas fired generation but also as transportation fuel, there is no doubt that natural gas will have an increasingly important role to play in the global energy landscape. The natural gas industry is changing rapidly, as shale gas exploration changes the economics of gas production and LNG connects regions across the globe. The purpose of this study is to outline the present state of the global gas industry highlighting the differing models around the world. This study will pay particular attention to the move towards hub based pricing that has taken hold first in the US and over the past decade across the UK and Continental Europe. In the coming years the Spanish model will move towards hub based pricing. As gas market regulatory change takes hold, liquidity in the Spanish gas market will increase, bringing with it new ways to balance gas portfolios and placing an increasing focus on managing price risk. This study will in turn establish the links between the changes that have taken place in other markets as a way to better understanding how the Spanish market will evolve in the coming years.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Analysis of low initial aspect ratio direct-drive target designs is carried out by varying the implosion velocity and the fuel mass. Starting from two different spherical targets with a given 300?g-DT mass, optimization of laser pulse and drive power allows to obtain a set of target seeds referenced by their peak implosion velocities and initial aspect ratio (A = 3 and A = 5). Self-ignition is achieved with higher implosion velocity for A = 5-design than for A = 3-design. Then, rescaling is done to extend the set of designs to a huge amount of mass, peak kinetic energies and peak areal densities. Self-ignition kinetic energy threshold Ek is characterized by a dependance of Ek ? v? with ?-values which depart from self-ignition models. Nevertheless, self-ignition energy is seen lower for smaller initial aspect ratio. An analysis of Two-Plasmons Decay threshold and Rayleigh?Taylor instability e-folding is carried out and it is shown that two-plasmon decay threshold is always overpassed for all designs. The hydrodynamic stability analysis is performed by embedded models to deal with linear and non-linear regime. It is found that the A = 5-designs are always at the limit of disruption of the shell.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

online donde el contenido es creado por los propios usuarios mediante el uso de las tecnologías de la web 2.0, que facilitan la edición, la publicación y el intercambio de información, de tal manera que los social media están democratizando las comunicaciones. Según datos publicados por eMarketer, casi el 25% del total de la inversión publicitaria mundial para el 2014 estará dirigida a medios digitales. Los medios de comunicación tradicionales están sumidos desde algún tiempo en una profunda crisis. En los comienzos de Internet, los protagonistas de este sector han creído en la red como un medio de publicación de contenidos en una única dirección, esto es la web 1.0, personas conectándose a páginas web. El típico lector de revista y seminario se ha convertido en un nuevo consumidor con necesidades muy distintas. El lector de un medio tradicional se encuentra con contenido cerrado, sin posibilidad de ser filtrado, que busca dirigir su opinión. Con el método tradicional no es posible ni personalizar el contenido ni la experiencia de uso. De ahí el nacimiento de la web 2.0, personas conectándose a personas (redes sociales). En un futuro cercano, van a triunfar las empresas, sectores y marcas que sepan adaptarse a la llegada de los social media, y que además de desarrollar su línea de negocio habitual, se conviertan en plataformas para la conversación y la construcción de contenidos en colaboración. En este proyecto voy a desarrollar el caso particular de una empresa de telecomunicaciones con una estrategia que use los social media como plataforma de atención al cliente, y para interaccionar también con su almacén en DHL. Los servicios añadidos que dicha empresa de telecomunicaciones ofrece a sus seguidores, clientes externos e internos se pueden agrupar en las siguientes funcionalidades:  Hacer un volcado del sistema de gestión de incidencias de una empresa de telecomunicaciones en las redes sociales, a través de mensajes privados. Dichos mensajes privados se enviarán a las páginas de Facebook y Twitter de los clientes.  Seguimiento por parte del cliente de puestas en marcha de los nuevos servicios a través de mensajes privados en Facebook y Twitter. Mediante este servicio el cliente podrá comprobar a través de las redes sociales el estado de su pedido e intercambiar información de utilidad con la empresa.  Desarrollar a través de las redes sociales una herramienta de marketing para interaccionar con los clientes y posibles seguidores. A través de los canales de los social media se proporciona a los seguidores información de valor sobre novedades del mercado de las telecomunicaciones, soporte técnico, dudas, consejos sobre implementaciones técnicas, equipos de telecomunicaciones,.etc.Es decir, crear una plataforma de conversación entre usuarios, que aporte a los seguidores conocimientos y soluciones útiles para la problemática de sus negocios.  Usar Facebook como base de datos y medio de comunicación entre nuestra empresa de telecomunicaciones y el almacén externalizado en DHL. Supongo que la primera pregunta que debo responder sería, ¿por qué un cliente de una empresa de telecomunicaciones estaría interesado en seguir a su proveedor a través de redes sociales? Facebook tiene en 2014 1,28 billones de usuarios activos. Twitter, la cuarta plataforma social por número de usuarios tras Facebook, alcanzó los 255 millones de usuarios en los primeros meses de 2014. La segunda red social en número de seguidores es Youtube, con un billón de usuarios. El 61,5% de los usuarios de Facebook visita la red todos los días. Los twitteros envían 110 millones tweets por día, tienen fama de muy activos, especialmente por la mañana. En 60 días, se sube más contenido de vídeo a YouTube que el producido por las tres principales cadenas de televisión estadounidense durante 60 años. Como conclusión, las redes sociales están ganando cada día más terreno, es un entorno de comunicación bidireccional en auge cada vez más extendido, por lo cual los usuarios no tienen que dedicar tiempo extra a conocer la herramienta de atención al cliente de su empresa, al usar ésta un canal fácil, conocido, rápido, versátil y gratuito como son las redes sociales. ABSTRACT. Social media are platforms of online communication where content is created by users themselves using technologies of web 2.0, which facilitate the editing, publication and the exchange of information, so that the social media are democratizing communications. According to data published by eMarketer, nearly 25% of the total global ad spend for 2014 will target digital media. The traditional media are trapped for some time in deep crisis. In the early days of the internet, the players of the sector have believed in the network as a means of publishing content in a single direction, this is the web 1.0, connecting people to websites. The typical magazine reader has become a new consumer with very different needs. Traditional medium readers encounter a closed content, unable to be filtered, which seeks handle their opinion. The traditional method doesn’t allow to customize the content and user experience. Hence the birth of Web 2.0, connecting people to people. In the near future, will succeed companies, sectors and brands who can adapt to the advent of social media, and further to develop their line of business as usual, become platforms for conversation and building collaborative content. In this project I will develop the particular case of a telecommunications company with a strategy to use social media as a platform for Customer Service, and also to interact with DHL warehouse. The additional services that the company offers telecommunications followers, external and internal customers can be grouped into the following functionality:  Make a dump of the incident management system of a telecommunications company in social networks through private messages. These private messages are sent Facebook and Twitter clients.  Monitoring by the client launched new services through private messages on Facebook and Twitter. Through this service, customers can check through the social networks of your order status and share useful information with the company.  Develop through social media as a marketing tool to interact with customers and potential followers.Our telco will provide to followers through social media channels valuable information on market developments in telecommunications, technical support, questions, advice on technical implementations, telecommunications equipment,etc. Then we create a platform for discussion between users, to provide followers useful knowledge and solutions to their business problems.  Use Facebook as a database and means of communication between our telco and outsourced telecommunications in DHL warehouse. I guess the first question that must be answered is why a customer of a telecommunications company would be interested in following your provider via social networks. Facebook has 1.28 billion active users in 2014. Twitter, the fourth social platform for many users after Facebook reached 255 million users in the first months of 2014. The second social network on number of followers is YouTube, with a billion users. 61.5% of Facebook users visit the network every day. The twitter users send 110 million tweets per day, have a reputation for very active, especially in the morning. In 60 days, it is produced more video content to YouTube by the three major US television for 60 years. In conclusion, social networks are gaining more ground every day. It is an environment of two-way communication on the rise, so users do not have to spend extra time to learn the tool of Customer Care telco, by using this easy, known, fast, versatile and free channels as are social networks.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesis “1950 En torno al Museo Louisiana 1970” analiza varias obras relacionadas con el espacio doméstico, que se realizaron entre 1950 y 1970 en Dinamarca, un periodo de esplendor de la Arquitectura Moderna. Tras el aislamiento y restricciones del conflicto bélico que asoló Europa, los jóvenes arquitectos daneses, estaban deseosos por experimentar nuevas ideas de procedencia internacional, favorecidos por diferentes circunstancias, encuentran el mejor campo de ensayo en el espacio doméstico. La mejor arquitectura doméstica en Dinamarca, de aquel periodo, debe entenderse como un sistema compuesto por diferentes autores, que tienen en común muchas más similitudes que diferencias, se complementan unos a otros. Para la comprensión y el entendimiento de ello se hace necesario el estudio de varias figuras y edificios, que completen este sistema cuya investigación está escasamente desarrollada. La tesis propone un viaje para conocer los nombres de algunos de sus protagonistas, que mostraron con su trabajo, que tradición y vanguardia no estarán reñidas. El objetivo es desvelar las claves de la Modernidad Danesa, reconocer, descubrir y recuperar el legado de algunos de sus protagonistas en el ámbito doméstico, cuya lección se considera de total actualidad. Una arquitectura que asume las aportaciones extranjeras con moderación y crítica, cuya íntima relación con la tradición arquitectónica y la artesanía propias, será una de sus notas especiales. Del estudio contrastado de varios proyectos y versiones, se obtienen valores comunes entre sus autores, al igual que se descubren sus afinidades o diferencias respecto a los mismos asuntos; que permitirán comprender sus actuaciones según las referencias e influencias, y definir las variables que configuran sus espacios arquitectónicos. La línea de conexión entre los edificios elegidos será su particular relación con la naturaleza y el lugar en que se integran. La fachada, lugar donde se negociará la relación entre el interior y el paisaje, será un elemento entendido de un modo diferente en cada uno de ellos, una relación que se extenderá en todas ellas, más allá de su perímetro. La investigación se ha estructurado en seis capítulos, que van precedidos de una Introducción. En el capítulo primero, se estudian y se señalan los antecedentes, las figuras y edificios más relevantes de la Tradición Danesa, para la comprensión y el esclarecimiento de algunas de las claves de su Modernidad en el campo de la Arquitectura, que se produce con una clara intención de encontrar su propia identidad y expresión. Esta Modernidad floreciente se caracteriza por la asimilación de otras culturas extranjeras desde la moderación, con un punto de vista crítico, y encuentra sus raíces ancladas a la tradición arquitectónica y la artesanía propia, que fragua en la aparición de un ideal común con enorme personalidad y que hoy se valora como una auténtica aportación de una cultura considerada entonces periférica. Se mostrará el debate y el camino seguido por las generaciones anteriores, a las obras análizadas. Las sensibilidades por lo vernáculo y lo clásico, que aparentemente son contradictorias, dominaran el debate con la misma veracidad y respetabilidad. La llamada tercera generación por Sigfried Giedion reanudará la práctica entre lo clásico y lo vernáculo, apoyados en el espíritu del trabajo artesanal y de la tradición, con el objetivo de conocer del acto arquitectónico su “la verdad” y “la esencia original”. El capítulo segundo, analiza la casa Varming, de 1953, situada en un área residencial de Gentofte, por Eva y Nils Koppel, que reinterpreta la visión de Asplund de un paisaje interior continuación del exterior, donde rompen la caja de ladrillo macizo convencional propia de los años 30. Es el ejemplo más poderoso de la unión de tradición e innovación en su obra residencial. Sus formas sobrias entre el Funcionalismo Danés y la Modernidad se singularizarán por su abstracción y volúmenes limpios que acentúan el efecto de su geometría, prismática y brutalista. El desplazamiento de los cuerpos que lo componen, unos sobre otros, generan un ritmo, que se producirá a otras escalas, ello unido a las variaciones de sus formas y a la elección de sus materiales, ladrillo y madera, le confieren a la casa un carácter orgánico. El edificio se ancla a la tierra resolviéndose en diferentes niveles tras el estudio del lugar y su topografía. El resultado es una versión construida del paisaje, en la cual el edificio da forma al lugar y ensalza la experiencia del escenario natural. La unidad de las estructuras primitivas, parece estar presente. Constituye un ejemplo de la “La idea de Promenade de Asplund”, el proyecto ofrece diferentes recorridos, permitiendo su propia vivencia de la casa, que ofrece la posibilidad vital de decidir. El capítulo tercero trata sobre el pabellón de invitados de Niels Bohr de 1957, situado un área boscosa, en Tisvilde Hegn, fue el primer edificio del arquitecto danés Vilhelm Wohlert. Arraigado a la Tradición Danesa, representa una renovación basada en la absorción de influencias extranjeras: la Arquitectura Americana y la Tradición Japonesa. La caja de madera, posada sobre un terreno horizontal, tiene el carácter sensible de un organismo vivo, siempre cambiante según las variaciones de luz del día o temperatura. Cuando se abre, crea una prolongación del espacio interior, que se extiende a la naturaleza circundante, y se expande hacia el espacio exterior, permitiendo su movilización. Se establece una arquitectura de flujos. Hay un interés por la materia, su textura y el efecto emocional que emana. Las proporciones y dimensiones del edificio están reguladas por un módulo, que se ajusta a la medida del hombre, destacando la gran unidad del edificio. La llave se su efecto estético está en su armonía y equilibrio, que transmiten serenidad y belleza. El encuentro con la naturaleza es la lección más básica del proyecto, donde un mundo de relaciones es amable al ser humano. El capítulo cuarto, analiza el proyecto del Museo Louisiana de 1958, en Humlebæk, primer proyecto de la pareja de arquitectos daneses Jørgen Bo y Vilhelm Wohlert. La experiencia en California de Wohlert donde será visitado por Bo, será trascendental para el desarrollo de Louisiana, donde la identidad Danesa se fusiona con la asimilación de otras culturas, la arquitectura de Frank Lloyd Wright, la del área de la Bahía y la Tradición Japonesa principalmente. La idea del proyecto es la de una obra de arte integral: arquitectura, arte y paisaje, coexistirían en un mismo lugar. Diferentes recursos realzarán su carácter residencial, como el uso de los materiales propios de un entorno doméstico, la realización a la escala del hombre, el modo de usar la iluminación. Cubiertas planas que muestran su artificialidad, parecen flotar sobre galerías acristaladas, acentuarán la fuerza del plano horizontal y establecerán un recorrido en zig-zag de marcado ritmo acompasado. Ritmo que tiene que ver con la encarnación del pulso de la naturaleza, que se acompaña de juegos de luz, y de otras vibraciones materiales a diferentes escalas, imagen, que encuentra una analogía semejante en la cultura japonesa. Todo se coordina con la trama estructural, que conlleva a una construcción y proporción disciplinada. Louisiana atiende al principio de crecimiento de la naturaleza, con la que su conexión es profunda. Hay un dinamismo expresado por el despliegue del edificio, que evoca a algunos proyectos de la Tradición Japonesa. Los blancos muros tienen su propia identidad como formas en sí mismas, avanzan prolongándose fuera de la línea del vidrio, se mueven libremente siguiendo el orden estructural, acompañando al espacio que fluye, en contacto directo con la naturaleza que está en un continuo estado de flujos. Se da todo un mundo de relaciones, donde existe un dialogo entre el paisaje, arte y arquitectura. El capítulo quinto, se dedica a analizar la segunda casa del arquitecto danés Halldor Gunnløgsson, de 1959. Evoca a la Arquitectura Japonesa y Americana, pero es principalmente resultado de una fuerte voluntad y disciplina artística personal. La cubierta, plana, suspendida sobre una gran plataforma pavimentada, que continúa la sección del terreno construyendo de lugar, tiene una gran presencia y arroja una profunda sombra bajo ella. En el interior un espacio único, que se puede dividir eventualmente, discurre en torno a un cuerpo central. El espacio libre fluye, extendiéndose a través de la transparencia de sus ventanales a dos espacios contrapuestos: un patio ajardinado íntimo, que inspira calma y sosiego; y la naturaleza salvaje del mar que proyecta el color del cielo, ambos en constante estado de cambio. El proyecto se elabora de un modo rigurosamente formal, existiendo al mismo tiempo un perfecto equilibrio entre la abstracción de su estructura y su programa. La estructura de madera cuyo orden se extiende más allá de los límites de su perímetro, está formada por pórticos completos como elementos libres, queda expuesta, guardando una estrecha relación con el concepto de modernidad de Mies, equivalente a la arquitectura clásica. La preocupación por el efecto estético es máxima, nada es improvisado. Pero además la combinación de materiales y el juego de las texturas hay una cualidad táctil, cierto erotismo, que flota alrededor de ella. La precisión constructiva y su refinamiento se acercan a Mies. La experiencia del espacio arquitectónico es una vivencia global. La influencia de la arquitectura japonesa, es más conceptual que formal, revelada en un respeto por la naturaleza, la búsqueda del refinamiento a través de la moderación, la eliminación de los objetos innecesarios que distraen de la experiencia del lugar y la preocupación por la luz y la sombra, donde se establece cierto paralelismo con el oscuro mundo del invierno nórdico. Hay un entendimiento de que el espacio, en lugar de ser un objeto inmaterial definido por superficies materiales se entiende como interacciones dinámicas. El capítulo sexto. Propone un viaje para conocer algunas de las viviendas unifamiliares más interesantes que se construyeron en el periodo, que forman parte del sistema investigado. Del estudio comparado y orientado en varios temas, se obtienen diversa conclusiones propias del sistema estudiado. La maestría de la sustancia y la forma será una característica distintiva en Dinamarca, se demuestra que hay un acercamiento a la cultura de Oriente, conceptual y formal, y unos intereses comunes con cierta arquitectura Americana. Su lección nos sensibiliza hacia un sentido fortalecido de proporción, escala, materialidad, textura y peso, densidad del espacio, se valora lo táctil y lo visual, hay una sensibilidad hacia la naturaleza, hacia lo humano, hacia el paisaje, la integridad de la obra. ABSTRACT The thesis “1950 around the Louisiana Museum 1970” analyses several works related to domestic space, which were carried out between 1950 and 1970 in Denmark, a golden age of modern architecture. After the isolation and limitations brought about by the war that blighted Europe, young Danish architects were keen to experiment with ideas of an international origin, encouraged by different circumstances. They find the best field of rehearsal to be the domestic space. The best architecture of that period in Denmark should be understood as a system composed of different authors, who have in common with each other many more similarities than differences, thus complimenting each other. In the interests of understanding, the study of a range of figures and buildings is necessary so that this system, the research of which is still in its infancy, can be completed. The thesis proposes a journey of discovery through the names of some of those protagonists who were showcased through their work so that tradition and avant- garde could go hand in hand. The objective is to unveil the keys to Danish Modernity; to recognise, discover and revive the legacy of some of its protagonists in the domestic field whose lessons are seen as entirely of the present. For an architect, the taking on of modern contributions with both moderation and caution, with its intimate relationship with architectural tradition and its own craft, will be one of his hallmarks. With the study set against several projects and versions, one can derive common values among their authors. In the same way their affinities and differences in respect of the same issue emerge. This will allow an understanding of their measures in line with references and influences and enable the defining of the variables of their architectural spaces. The common line between the buildings selected will be their particular relationship with nature and the space with which they integrate. The façade, the place where the relationship between the interior and the landscape would be negotiated, wouldl be the discriminating element in a distinct way for each one of them. It is through each of these facades that this relationship would extend, and far beyond their physical perimeter. The investigation has been structured into six chapters, preceded by an introduction. The first chapter outlines and analyses the backgrounds, figures and buildings most relevant to the Danish Tradition. This is to facilitate the understanding and elucidation of some of the keys to its modernity in the field of architecture, which came about with the clear intention to discover its own identity and expression. This thriving modernity is characterized by its moderate assimilation with foreign cultures with a critical eye, and finds its roots anchored in architectural tradition and its own handcraft. It is forged in the emergence of a common ideal of enormous personality which today has come to be valued as an authentic contribution to the sphere from a culture that was formerly seen as on the peripheries. What will be demonstrated is the path taken by previous generations to these works and the debate that surrounds them. The sensibilities for both the vernacular and the classic, which at first glance may seem contradictory, will dominate the debate with the same veracity and respectability. The so-called third generation of Sigfried Giedion will revive the process between the classic and the vernacular, supported in spirit by the handcraft work and by tradition, with the objective of discovering the “truth” and the “original essence” of the architectural act. The second chapter analyzes the Varming house, built by Eva and Nils Koppel 1953, which is situated in a residential area of Gentofte. This reinterprets Asplund’s vision of an interior landscape extending to the exterior, where we see a break with the conventional sturdy brick shell of the 1930s. It is the most powerful example of the union of tradition and innovation in his their residential work. Their sober forms caught between Danish Functionalism and modernity are characterized by their abstraction and clean shapes which accentuate their prismatic and brutal geometry, The displacement of the parts of which they are composed, one over the other, generate a rhythm. This is produced to varying scales and is closely linked to its forms and the selection of materials – brick and wood – that confer an organic character to the house. The building is anchored to the earth, finding solution at different levels through the study of place and topography. The result is an adaption constructed out of the landscape, in which the building gives form to the place and celebrates the experience of the natural setting. The unity of primitive structures appears to be present. It constitutes an example of “Asplund’s Promenade Idea”. Different routes of exploration within are available to the visitor, allowing for one’s own personal experience of the house, allowing in turn for the vital chance to decide. The third chapter deals with Niels Bohr’s guest pavilion. Built in 1957, it is situated in a wooded area of Tisvilde Hegn and was the architect Vilhelm Wohlert’s first building. Rooted in the Danish Tradition, it represents a renewal based on the absorption of foreign influences: American architecture and the Japanese tradition. The wooden box, perched atop a horizontal terrain, possesses the sensitive character of the living organism, ever-changing in accordance with the variations in daylight and temperature. When opened up, it creates an elongation of the interior space which extends into the surrounding nature and it expands towards the exterior space, allowing for its mobilisation. It establishes an architecture of flux. There is interest in the material, its texture and the emotional effect it inspires. The building’s proportions and dimensions are regulated by a module, which is adjusted by hand, bringing out the great unity of the building. The key to its aesthetic effect is its harmony and equilibrium, which convey serenity and beauty. The meeting with nature is the most fundamental lesson of the project, where a world of relationships softens the personality of the human being. The fourth chapter analyzes the Louisiana Museum project of 1958 in 1958. It was the first project of the Danish architects Jørgen Bo and Vilhelm Wohlert. Wohlert’s experience in California where he was visited by Bo would be essential to the development of Louisiana, where the Danish identity is fused in assimilation with other cultures, the architecture of Frank Lloyd Wright, that of the Bahía area and principally the Japanese tradition. The idea of the project was for an integrated work of art: architecture, art and landscape, which would coexist in the same space. A range of different resources would realize the residential character, such as the use of materials taken from a domestic environment, the attainment of human scale and the manner in which light was used. Flat roof plans that show their artificiality and appear to float over glassed galleries. They accentuate the strength of the horizontal plan and establish a zigzag route of marked and measured rhythm. It is a rhythm that has to do with the incarnation of nature’s pulse, which is accompanied with plays of light, as well as material vibrations of different scales, imagery which uncovers a parallel analogy with Japanese culture. Everything is coordinated along a structural frame, which involves a disciplined construction and proportion. Louisiana cherishes nature’s principle of growth, to which its connection is profound. Here is a dynamism expressed through the disposition of the building, which evokes in some projects the Japanese tradition. The white walls possess their own identity as forms in their own right. They advance, extending beyond the line of glass, moving freely along the structural line, accompanying a space that flows and in direct contact with nature that is itself in a constant state of flux. It creates a world of relationships, where dialogue exists between the landscape, art and architecture. The fifth chapter is dedicated to analyzing the Danish architect Halldor Gunnløgsson’s second house, built in 1959. It evokes both Japanese and American architecture but is principally the result of a strong will and personal artistic discipline. The flat roof suspended above a large paved platform – itself continuing the constructed terrain of the place – has great presence and casts a heavy shadow beneath. In the interior, a single space, which can at length be divided and which flows around a central space. The space flows freely, extending through the transparency of its windows which give out onto two contrasting locations: an intimate garden patio, inspiring calm and tranquillity, and the wild nature of the sea which projects the colour of sky, both in a constant state of change. The project is realized in a rigorously formal manner. A perfect balance exists between the abstraction of his structure and his project. The wooden structure, whose order extends beyond the limits of its perimeter, is formed of complete porticos of free elements. It remains exposed, maintaining a close relationship with Mies’ concept of modernity, analogous to classical architecture. The preoccupation with the aesthetic effect is paramount and nothing is improvised. But in addition to this - the combination of materials and the play of textures - there is a tactile quality, a certain eroticism, which lingers all about. The constructive precision and its refinement are close to Mies. The experience of the architectural space is universal. The influence of Japanese architecture, more conceptual than formal, is revealed in a respect for nature. It can be seen in the search for refinement through moderation, the elimination of the superfluous object that distract from the experience of place and the preoccupation with light and shade, where a certain parallel with the dark world of the Nordic winter is established. There is an understanding that space, rather than being an immaterial object defined by material surfaces, extends instead as dynamic interactions. The sixth chapter. This proposes a journey to discover some of the unfamiliar residences of most interest which were constructed in the period, and which form part of the system being investigated. Through the study of comparison and one which is geared towards various themes, diverse conclusions are drawn regarding the system being researched. The expertise in substance and form will be a distinctive characteristic in Denmark, demonstrating an approach to the culture of the Orient, both conceptual and formal, and some common interests in certain American architecture. Its teachings sensitize us to a strengthened sense of proportion, scale, materiality, texture and weight and density of space. It values both the tactile and the visual. There is a sensitivity to nature, to the human, to the landscape and to the integrity of the work.