922 resultados para INVESTIGACION DEMOGRAFICA


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen En la última década la tecnología láser se ha convertido en una herramienta imprescindible en la fabricación de dispositivos fotovoltaicos, muy especial¬mente en aquellos basados en tecnología de lámina delgada. Independiente¬mente de crisis coyunturales en el sector, la evolución en los próximos años de estas tecnologías seguirá aprovechándose de la flexibilidad y calidad de proceso de la herramienta láser para la consecución de los dos objetivos básicos que harán de la fotovoltaica una opción energética económicamente viable: la reducción de costes de fabricación y el aumento de eficiencia de los dispositivos. Dentro de las tecnologías fotovoltaicas de lámina delgada, la tecnología de dispositivos basados en silicio amorfo ha tenido un gran desarrollo en sistemas estándar en configuración de superestrato, pero su limitada efi¬ciencia hace que su supervivencia futura pase por el desarrollo de formatos en configuración de substrato sobre materiales flexibles de bajo coste. En esta aproximación, las soluciones industriales basadas en láser actualmente disponibles para la interconexión monolítica de dispositivos no son aplica¬bles, y desde hace años se viene investigando en la búsqueda de soluciones apropiadas para el desarrollo de dichos procesos de interconexión de forma que sean transferibles a la industria. En este contexto, esta Tesis propone una aproximación completamente orig¬inal, demostrando la posibilidad de ejecutar una interconexión completa de estos dispositivos irradiando por el lado de la lámina (es decir de forma com¬patible con la opción de configuración de substrato y, valga la redundancia, con el substrato del dispositivo opaco), y con fuentes láser emitiendo en UV. Este resultado, obtenido por primera vez a nivel internacional con este trabajo, aporta un conocimiento revelador del verdadero potencial de estas fuentes en el desarrollo industrial futuro de estas tecnologías. Si bien muy posiblemente la solución industrial final requiera de una solución mixta con el empleo de fuentes en UV y, posiblemente, en otras longitudes de onda, esta Tesis y su planteamiento novedoso aportan un conocimiento de gran valor a la comunidad internacional por la originalidad del planteamiento seguido, los resultados parciales encontrados en su desarrollo (un número importante de los cuales han aparecido en revistas del JCR que recogen en la actualidad un número muy significativo de citas) y porque saca además a la luz, con las consideraciones físicas pertinentes, las limitaciones intrínsecas que el desarrollo de procesos de ablación directa selectiva con láseres UV en parte de los materiales utilizados presenta en el rango temporal de in¬teracción de ns y ps. En este trabajo se han desarrollado y optimizado los tres pasos estándar de interconexión (los habitualmente denominados Pl, P2 y P3 en la industria fotovoltaica) demostrando las ventajas y limitaciones del uso de fuentes en UV tanto con ancho temporal de ns como de ps. En particular destaca, por el éxito en los resultados obtenidos, el estudio de procesos de ablación selectiva de óxidos conductores transparentes (en este trabajo utilizados tanto como contacto frontal así como posterior en los módulos) que ha generado resultados, de excelente acogida científica a nivel internacional, cuya aplicación trasciende el ámbito de las tecnologías de silicio amorfo en lámina delgada. Además en este trabajo de Tesis, en el desarrollo del objetivo citado, se han puesto a punto técnicas de análisis de los procesos láser, basadas en métodos avanzados de caracterización de materiales (como el uso combi¬nado de la espectroscopia dispersiva de rayos X y la microscopía confocal de barrido) que se presentan como auténticos avances en el desarrollo de técnicas específicas de caracterización para el estudio de los procesos con láser de ablación selectiva de materiales en lámina delgada, procesos que no solo tienen impacto en el ámbito de la fotovoltaica, sino también en la microelectrónica, la biotecnología, la microfabricación, etc. Como resultado adicional, parte de los resultados de este trabajo, han sido aplicados exi¬tosamente por el grupo de investigaci´on en la que la autora desarrolla su labor para conseguir desarrollar procesos de enorme inter´es en otras tec-nolog´ıas fotovoltaicas, como las tecnolog´ıas est´andar de silicio amorfo sobre vidrio en configuraci´on de superestrato o el procesado de capas delgadas en tecnolog´ıas convencionales de silicio cristalino. Por u´ltimo decir que este trabajo ha sido posible por una colaboraci´on muy estrecha entre el Centro L´aser de la UPM, en el que la autora de¬sarrolla su labor, y el Grupo de Silicio Depositado del Centro de Inves¬tigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, que, junto al Grupo de Energ´ıa Fotovoltaica de la Universidad de Barcelona, han preparado la mayor parte de las muestras utilizadas en este estudio. Dichas colaboraciones se han desarrollado en el marco de varios proyectos de investigaci´on aplicada con subvenci´on pu´blica, tales como el proyecto singular estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), el proyecto INNDISOL (IPT-420000-2010-6), ambos financiados porel Fondo Europeo de Desarrollo Regional FEDER (UE) ”Una manera de hacer Europa y el MICINN, y los proyectos de Plan Nacional AMIC (ENE2010-21384-C04-´ 02) y CLASICO (ENE2007-6772-C04-04), cuya financiaci´on ha permitido en gran parte llevar a t´ermino este trabajo Abstract In the last decade, the laser technology has turned into an indispensable tool in the production of photovoltaic devices, especially of those based on thin film technology. Regardless the current crisis in the sector, the evolution of these technologies in the upcoming years will keep taking advantage of the flexibility and process quality of the laser tool for the accomplishment of the two basic goals that will convert the photovoltaic energy into economically viable: the manufacture cost reduction and the increase in the efficiency of the devices. Amongst the thin film laser technologies, the technology of devices based on amorphous silicon has had a great development in standard systems of superstrate configuration, but its limited efficiency makes its survival de¬pendant on the development of formats in substrate configuration with low cost flexible materials. In this approach, the laser industrial solutions cur¬rently available for the monolithic interconnection are not applicable, and in the last few years the investigations have been focused on the search of appropriate solutions for the development of such interconnection processes in a way that the same are transferable to the industry. In this context, this Thesis proposes a totally original approach, proving the possibility of executing a full interconnection of these devices by means of irradiation from the film side, i.e., compatible with the substrate con¬figuration, and with UV laser sources. This result, obtained for the first time at international level in this work, provides a revealing knowledge of the true potential of these sources in the future industrial development of these technologies. Even though very probably the final industrial solution will require a combination of the use of UV sources along with other wave¬lengths, this Thesis and its novel approach contribute with a high value to the international community because of the originality of the approach, the partial results found throughout its development (out of which, a large number has appeared in JCR journals that currently accumulate a signifi¬cant number of citations) and brings to light, with the pertinent scientific considerations, the intrinsic limitations that the selective direct ablation processes with UV laser present in the temporal range of interaction of ns and ps for part of the materials used in this study. More particularly, the three standard steps of interconnection (usually de¬nominated P1, P2 and P3 in the photovoltaic industry) have been developed and optimized, showing the advantages as well as the limitations of the use of UV sources in both the ns and ps pulse-width ranges. It is highly remark¬able, because of the success in the obtained results, the study of selective ablation processes in transparent conductive oxide (in this work used as a front and back contact), that has generated results, of excellent interna¬tional scientific reception, whose applications go beyond the scope of thin film photovoltaic technologies based on amorphous silicon. Moreover, in this Thesis, with the development of the mentioned goal, differ¬ent techniques of analysis of laser processes have been fine-tuned, basing the same in advanced methods for material characterization (like the combined use of EDX Analysis and Confocal Laser Scanning Microscopy) that can be presented as true breakthroughs in the development of specific techniques for characterization in the study of laser processes of selective ablation of materials in thin film technologies, processes that not only have impact in the photovoltaic field, but also in those of microelectronics, biotechnology, micro-fabrication, etc. As an additional outcome, part of the results of this work has been suc¬cessfully applied, by the investigation group to which the author belongs, to the development of processes of enormous interest within other photo¬voltaic technologies, such as the standard technologies on amorphous silicon over glass in superstrate configuration or the processing of thin layers in conventional technologies using crystalline silicon. Lastly, it is important to mention that this work has been possible thanks to the close cooperation between the Centro L´aser of the UPM, in which the author develops her work, and the Grupo de Silicio Depositado of Centro de Investigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, which, along with the Grupo de Energ´ıa Fotovoltaica of Univer¬sidad de Barcelona, has prepared the largest part of the samples utilized in this study. Such collaborations have been carried out in the context of several projects of applied investigation with public funding, like Proyecto Singular Estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), Proyecto IN-NDISOL (IPT-420000-2010-6), both funded by the European Regional De¬velopment Fund (ERDF), ”Una manera de hacer Europa” and MICINN, and the projects of Plan Nacional AMIC (ENE2010-21384-C04-02) and ´ CLASICO (ENE2007-6772-C04-04), whose funds have enabled the devel-opment of large part of this work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La actual crisis económica ha supuesto, especialmente para España, un receso en la construcción de nuevos edificios. Después de hacer una evaluación de la evolución del concepto de vivienda, analizamos la influencia que ello ha tenido en la arquitectura (tipología de vivienda, métodos constructivos, etc.) para ofrecer alternativas arquitectónicas a la presente crisis a través de la universidad. El proyecto “Construcción de viviendas mediante contenedores de obra”, es una parte de una investigación más amplia dentro de la línea “Arquitectura Modular” desarrollada por el Grupo de Investigación “Diseño y Fabricación Industrial” de la UPM cuyo objetivo es responder a las necesidades de fabricación de viviendas a un precio asequible, ofreciendo a través de internet los planos así como los detalles técnicos necesarios para la auto-construcción. Las casas propuestas se construirían combinando los contenedores de obra ya prefabricados, subsistemas prefabricados así como otros componentes disponibles en el mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una vez que el tiempo ha superado al espacio, la casa del futuro es ampliada en torno al recorrido del ipad y el smartphone evolucionado que se convierte en interfaz entre el cuerpo y la ciudad. Augmented home se entiende como el tiempo doméstico en un sistema integrado de cuerpo e información.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SE ESTUDIAN LOS EFECTOS ACÚSTICO Y TÉRMICO DE LA PERSIANA INTEGRADA CON LA VENTANA EN DIFERENTES POSICIONES

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto miraremos como los campos de Diseño Participativo de las tecnologías de la información (DP, Participatory IT Design) y el diseño empresarial de modelos de negocio interactúan entre sí. Exploraremos el hueco que existe en los asuntos que aborda un proyecto de DP señalado por Kyng (2010). DP es una forma de enfocar el diseño para diseñar sistemas informáticos que tiene su propia ideología, haciendo mucho hincapié en la participación de los usuarios en el proceso. Esta ideología propia de DP da paso a un conjunto de métodos y herramientas para diseñar. DP tiene sus orígenes en Escandinavia en la década de los setenta cuando cambios de progreso social de la sociedad se introdujeron en el lugar de trabajo. Ya hay algunos investigadores del campo de DP que empiezan a estudiar este hueco señalado por Kyng. Un modelo de negocios es la forma en que un negocio crea, entrega y captura valor. En las últimas décadas las empresas informáticas han cambiado su modelo de negocios, transformándose en una oferta de servicios informáticos mayoritariamente. El mundo empresarial ya conoce los beneficios de las metodologías de diseño orientadas al usuario, sin embargo no acaban de ser adoptadas por las empresas informáticas. En el proyecto buscamos responder a las preguntas que surgen al juntar estas dos áreas de estudio. ¿Cómo interpreta la comunidad de DP el mundo empresarial? ¿La teoría empresarial como trata la metodología de diseño orientado al usuario? ¿Cómo afecta en una compañía real su política de usuario a su modelo de negocio y que técnicas utilizan para involucrar al usuario? ¿Qué intereses comunes y opuestos existen entre DP y el mundo empresarial? ¿Cuál es el futuro de DP en el mundo empresarial? En cuanto a la metodología del proyecto realice un estudio de la literatura de los campos de DP y el mundo empresarial usando fuentes recomendadas por expertos de cada área así como trabajos encontrados por mi propia cuenta que eran relevantes al tema tratado. Además realice un estudio de compañías desarrolladoras de software locales a Copenhague. Mediante una serie de visitas y entrevistas con esas compañías obtuve información del modelo de negocio y proceso de desarrollo de software de las mismas. También dialogamos en cuanto a su visión de DP y metodologías de diseño orientado al usuario y como se podrían beneficiar de ellas. Durante el desarrollo del proyecto he encontrado que DP y el mundo empresarial tienen dos visiones muy diferentes. Mientras uno busca obtener el máximo beneficio el otro busca apoderar a los usuarios en su área de trabajo. Aunque al igual que DP las empresas necesitan obtener información acerca de los usuario como sus necesidades, gustos, etc. Está claro que el software producido para el mundo empresarial tiene mucho espacio para mejorar ya que suele venir con manuales de instrucciones extensos y es necesario un entrenamiento previo para su utilización. Un problema importante de la introducción de DP en las empresas es la falta de predisposición de los usuarios en colaborar en el proceso de desarrollo ya que no hay demasiada tendencia a usuarios a dar feedback. El trabajo de investigacion de Timpka y Vimarlund (1998) Participatory Design In Economic Terms: A Theoretical Discussion llega a la conclusión de que DP es económicamente favorable para los desarrolladores. Pero omite muchos factores críticos de la economía de una empresa. En cuanto al futuro de DP en el mundo empresarial, DP tiene que adaptarse a las compañías desarrolladoras de software. A sus necesidades y teniendo en cuenta sus límites de recursos. Pero hay ciertos aspectos que deben ser abordados. El primer aspecto es el uso de recursos en las técnicas de DP, ya que utilizan demasiados. Otro aspecto que debería abordar es el uso de las nuevas tecnologías de comunicación y redes sociales, ya que apenas se han utilizado en DP. Mientras que otras áreas de estudio han hecho uso de estas nuevas tecnologías y se han revolucionado DP no ha sido capaz de integrarlas en sus técnicas. Por último en el proyecto realizo una comparativa del actual modelo de negocios y proceso de desarrollo de software de la compañía Forecast.it. En esta comparativa miro como cambiaria el negocio en el caso de que se produjeran cambios en ella al introducir la ideología de DP. Donde más se notan los cambios seria en su esquema de desarrollo de software ya que habría que hacer hueco para nuevos factores y pasos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La casa sobre el arroyo, en Mar del Plata, Argentina, uno de los proyectos más importantes del arquitecto Amancio Williams, ha sido reconocida como una de las viviendas paradigmáticas de la modernidad y del siglo XX. Sus valores arquitectónicos, de investigación y evolución tecnológica, el proceso de construcción y su implantación en el paisaje han sido destacados por la crítica internacional. El acceso por primera vez a la documentación completa de esta obra en el Archivo Williams en Buenos Aires ha revelado interesantes datos en relación a su proyecto y construcción, entre los que se destaca el hecho hasta ahora desconocido de un importante conflicto técnico que requirió la demolición y reconstrucción de gran parte de la estructura debido a desviaciones geométricas detectadas durante la ejecución de la arco de hormigón armado. El artículo analiza el diseño estructural de la casa sobre el arroyo, interpreta la repercusión de los defectos que llevaron a su demolición y valora si la aspiración de Amancio Williams de realizar un análisis tridimensional de la estructura hubiera conseguido resultados significativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo estudia la evolución del modelo de vivienda prefabricada en madera que construye Konrad Wachsmann para Einstein en 1929 en Caputh, cerca de Potsdam. El físico deseaba construirse un "lugar de descanso", eligiendo la construcción en madera por su facilidad y rapidez de montaje, adaptabilidad, calidez y para que armonizara mejor con el medio ambiente. Wachsmann, que trabajaba para la firma "Christoph & Unmack A.G." le presentará un modelo prefabricado moderno. Esta tipología, evolucionada desde los diseños "nórdico-escandinavo" y "jugendstil", hasta introducir un nuevo lenguaje de líneas puras, cubierta plana, y grandes ventanales, será ligeramente modificada por Einstein, que finalmente adjudica el encargo. Wachsmann continuará la labor de investigación sobre vivienda prefabricada junto con Gropius en EEUU, que dará como resultado el "General Panel System" y sus conocidas "Packaged Houses".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta comunicación parte de la base de que en nuestro tiempo la idea ambigua del límite ha llegado a ser uno de los paradigmas más complejos que podemos afrontar no sólo en arquitectura sino también en la sociedad y la cultura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Ley 51/2003 de igualdad de oportunidades, no discriminación y accesibilidad universal de las personas con discapacidad, establece la obligación de adaptación de la edificación existente a las condiciones de accesibilidad en aquellos “edificios susceptibles de ajustes razonables”. Recientemente se ha fijado el plazo de adaptación para el 1 de enero de 2016, con la publicación de la Ley 8/2013 de rehabilitación, regeneración y renovación urbanas, generándose la inmediata necesidad de concretar con medidas en su desarrollo reglamentario. Este estudio analizará posibles indicadores para la realización de estos ajustes, que sirvan a las Administraciones y a otros agentes de la edificación en la toma de decisiones sobre la evaluación de las mejoras y prioridades a la hora de intervenir en edificios de vivienda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ponencia en congreso. Actas de congreso. La eficacia necesaria frente a factores económicos, energéticos, urbanísticos, tipológicos, funcionales, constructivos, etc, encorseta la defi nición formal de todo proyecto de viviendas que además debe albergar todos los tipos de vida de la sociedad a la que sirve. Este trabajo estudia el factor de forma en edifi cios de viviendas como responsable de los procesos que ayudan a entenderlos tanto en su espacialidad interior como en su comportamiento urbanístico. A través del análisis comparativo de edifi cios de viviendas paradigmáticos y bien conocidos del siglo XX se establecen algunas de las claves e hilos conductores que nos permiten profundizar de un modo sencillo en los procedimientos que defi nen la calidad en la vivienda moderna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el caso específico de la tarea de resto de un primer servicio en tenis, el defensor debe hacer frente a enormes exigencias temporales. El 50 – 70 % de todos los puntos de un partido dependen de la calidad del servicio o del resto. Los servidores profesionales de excelencia logran 8 – 14 aces en un partido al mejor de tres set. Los cuales equivalen al 10.2 – 17.9 % de todos los primeros servicios ejecutados (Schonborn, 1999). Además, ellos son capaces deimprimirle a la bola una velocidad media de 202 km/h (Michikami y cols., 2003). Por este motivo, parece de manera evidente que el tiempo de reacción del jugador debe ser el más corto posible y el dinamismo de su respuesta viene a ser un requisito fundamental porque la bola tarda aproximadamente 0.4 segundos en llegar a la zona del restador (USPTA, 2005). Por lo tanto, de un punto de vista comportamental, los jugadores de tenis aprenden a emplear una secuencia muy particular y sistemática que consiste en efectuar un split step (despegue) en los instantes previos al golpe del oponente para retomar el contacto con el suelo (caída) en los momentos consecutivos al golpe adverso y así contribuir a un explosivo desplazamiento lateral hacia la dirección de la bola. Según Schmidt (1993) el jugador utiliza dos tipos diferentes de anticipación. En primer lugar, la anticipación temporal, relacionada a un evento evidente que va a suceder donde el sujeto debe ser capaz de prever en que instante ocurrirá. Por ejemplo "anticipar el instante del contacto bola-raqueta ». Segundo, la anticipación espacial (o del evento) que permite ayudar al jugador a predecir lo que posiblemente va a pasar en el ambiente para organizar su movimiento con antelación. Por ejemplo, « pr edecir si el atacante en tenis va a dirigir la bola hacia la izquierda o hacia la derecha ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante el verano de 2013 Manhattan albergó las muestras de dos artistas que trabajan con la luz y el espacio: una amplia exposición retrospectiva de James Turrell en el Museo Guggenheim y una instalación de Robert Irwin para el Museo Withney de Arte Americano. Ambos han hecho de la percepción el elemento fundamental de sus obras en una investigación que comenzó en los años sesenta y que han continuado desarrollando a lo largo de los últimos cuarenta y cinco años. Los dos compartieron en sus comienzos una línea de investigación conjunta, sis investigaciones sobre las sensaciones en el espacio y su estudio empírico fueron cruciales para el desarrollo de sus obras que hacen de la experiencia espacial un mecanismo de trascendencia. Sus trabajos son de gran interés para la arquitectura poarque los dos hacen de la percepción en el espacio el argumento fundamental de su investigación artística.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vivimos en las escuelas de ayer una vida de ciencia ficción. La tecnología se ha superpuesto a unos escenarios vigentes desde ha ce siglos, ocultando una realidad, que se ve superada por la cotidianidad . Lo habitual, como extremo de la ignorancia, se refugia en la seguridad que garantiza la cercanía de las cosas, las personas y las acciones, tergiversando la memoria. La supresión d e lo habitual puede ser un momento poderoso en el conocimiento y es posible mediante el extrañamiento . Es necesario definir nuevas reglas del juego, trasgrediendo todas las leyes creadas para controlar las formas y las personas. Es necesario rastrear y vis ibilizar todos los mecanismos ocultos destinados a trasmitir aquellos contenidos cuyo fin es perpetuar un sistema de valores incompatible con la dignidad y la justicia para todos los se res que habitamos en este mundo ( currículum oculto ). La asignatura “pa isaje de mujer” pretende colonizar el territorio de lo habitual – donde todos somos culpables - intentando fabricar un atlas de género mediante la cartografía de todas las representaciones existentes en las distintas esferas de la cotidianidad, para pode r coronar la cima del grado cero

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The interest in missions with multiple Unmanned Aerial Vehicles (UAVs) has increased significantly in last years. These missions take advantage of the use of fleets instead of single UAVs to ensure the success, reduce the duration or increase the goals of the mission. In addition, they allow performing tasks that require multiple agents and certain coordination (e.g. surveillance of large areas or transport of heavy loads). Nevertheless, these missions suppose a challenge in terms of control and monitoring. In fact, the workload of the operators rises with the utilization of multiple UAVs and payloads, since they have to analyze more information, make more decisions and generate more commands during the mission. This work addresses the operator workload problem in multi-UAV missions by reducing and selecting the information. Two approaches are considered: a first one that selects the information according to the mission state, and a second one that selects it according to the operator preferences. The result is an interface that is able to control the amount of information and show what is relevant for mission and operator at the time.