950 resultados para Semi dwarf
Resumo:
Context. Young, nearby stars are ideal targets for direct imaging searches for giant planets and brown dwarf companions. After the first-imaged planet discoveries, vast efforts have been devoted to the statistical analysis of the occurence and orbital distributions of giant planets and brown dwarf companions at wide (>= 5-6 AU) orbits. Aims. In anticipation of the VLT/SPHERE planet-imager, guaranteed-time programs, we have conducted a preparatory survey of 86 stars between 2009 and 2013 to identify new faint comoving companions to ultimately analyze the occurence of giant planets and brown dwarf companions at wide (10-2000 AU) orbits around young, solar-type stars. Methods. We used NaCo at VLT to explore the occurrence rate of giant planets and brown dwarfs between typically 0.1 and 8 ''. Diffraction-limited observations in H-band combined with angular differential imaging enabled us to reach primary star-companion brightness ratios as small as 10(-6) at 1.5 ''. Repeated observations at several epochs enabled us to discriminate comoving companions from background objects. Results. During our survey, twelve systems were resolved as new binaries, including the discovery of a new white dwarf companion to the star HD8049. Around 34 stars, at least one companion candidate was detected in the observed field of view. More than 400 faint sources were detected; 90% of them were in four crowded fields. With the exception of HD8049 B, we did not identify any new comoving companions. The survey also led to spatially resolved images of the thin debris disk around HD61005 that have been published earlier. Finally, considering the survey detection limits, we derive a preliminary upper limit on the frequency of giant planets for the semi-major axes of [10, 2000] AU: typically less than 15% between 100 and 500 AU and less than 10% between 50 and 500 AU for exoplanets that are more massive than 5 M-Jup and 10 M-Jup respectively, if we consider a uniform input distribution and a confidence level of 95%. Conclusions. The results from this survey agree with earlier programs emphasizing that massive, gas giant companions on wide orbits around solar-type stars are rare. These results will be part of a broader analysis of a total of similar to 210 young, solar-type stars to bring further statistical constraints for theoretical models of planetary formation and evolution.
Resumo:
This article examines a new lightweight, slim, high energy efficient, light-transmitting, self-supporting envelope system, providing for seamless, free-form designs for use in architectural projects. The system exploits vacuum insulation panel technology. The research was based on envelope components already existing on the market and patents and prototypes built by independent laboratories, especially components implemented with silica gel insulation, as this is the most effective transparent thermal insulation there is today. The tests run on these materials revealed that there is not one that has all the features required of the new envelope model, although some do have properties that could be exploited to generate this envelope, namely, the vacuum chamber of vacuum insulation panels, the use of monolithic aerogel as insulation in some prototypes, and reinforced polyester barriers. These three design components have been combined and tested to design a new, variable geometry, energy-saving envelope system that also solves many of the problems that other studies ascribe to the use of vacuum insulation panels.
Resumo:
This article examines a new lightweight, slim, high energy efficient, light-transmitting, selfsupporting envelope system, providing for seamless, free-form designs for use in architectural projects. The system exploits vacuum insulation panel technology. The research was based on envelope components already existing on the market and patents and prototypes built by independent laboratories, especially components implemented with silica gel insulation, as this is the most effective transparent thermal insulation there is today.
Resumo:
This article examines a new lightweight, slim, high energy efficient, light-transmitting, self-supporting envelope system, providing for seamless, free-form designs for use in architectural projects. The system exploits vacuum insulation panel technology. The research was based on envelope components already existing on the market and patents and prototypes built by independent laboratories, especially components implemented with silica gel insulation, as this is the most effective transparent thermal insulation there is today. The tests run on these materials revealed that there is not one that has all the features required of the new envelope model, although some do have properties that could be exploited to generate this envelope, namely, the vacuum chamber of vacuum insulation panels, the use of monolithic aerogel as insulation in some prototypes, and reinforced polyester barriers. These three design components have been combined and tested to design a new, variable geometry, energy-saving envelope system that also solves many of the problems that other studies ascribe to the use of vacuum insulation panels.
Resumo:
Machine learning techniques are used for extracting valuable knowledge from data. Nowa¬days, these techniques are becoming even more important due to the evolution in data ac¬quisition and storage, which is leading to data with different characteristics that must be exploited. Therefore, advances in data collection must be accompanied with advances in machine learning techniques to solve new challenges that might arise, on both academic and real applications. There are several machine learning techniques depending on both data characteristics and purpose. Unsupervised classification or clustering is one of the most known techniques when data lack of supervision (unlabeled data) and the aim is to discover data groups (clusters) according to their similarity. On the other hand, supervised classification needs data with supervision (labeled data) and its aim is to make predictions about labels of new data. The presence of data labels is a very important characteristic that guides not only the learning task but also other related tasks such as validation. When only some of the available data are labeled whereas the others remain unlabeled (partially labeled data), neither clustering nor supervised classification can be used. This scenario, which is becoming common nowadays because of labeling process ignorance or cost, is tackled with semi-supervised learning techniques. This thesis focuses on the branch of semi-supervised learning closest to clustering, i.e., to discover clusters using available labels as support to guide and improve the clustering process. Another important data characteristic, different from the presence of data labels, is the relevance or not of data features. Data are characterized by features, but it is possible that not all of them are relevant, or equally relevant, for the learning process. A recent clustering tendency, related to data relevance and called subspace clustering, claims that different clusters might be described by different feature subsets. This differs from traditional solutions to data relevance problem, where a single feature subset (usually the complete set of original features) is found and used to perform the clustering process. The proximity of this work to clustering leads to the first goal of this thesis. As commented above, clustering validation is a difficult task due to the absence of data labels. Although there are many indices that can be used to assess the quality of clustering solutions, these validations depend on clustering algorithms and data characteristics. Hence, in the first goal three known clustering algorithms are used to cluster data with outliers and noise, to critically study how some of the most known validation indices behave. The main goal of this work is however to combine semi-supervised clustering with subspace clustering to obtain clustering solutions that can be correctly validated by using either known indices or expert opinions. Two different algorithms are proposed from different points of view to discover clusters characterized by different subspaces. For the first algorithm, available data labels are used for searching for subspaces firstly, before searching for clusters. This algorithm assigns each instance to only one cluster (hard clustering) and is based on mapping known labels to subspaces using supervised classification techniques. Subspaces are then used to find clusters using traditional clustering techniques. The second algorithm uses available data labels to search for subspaces and clusters at the same time in an iterative process. This algorithm assigns each instance to each cluster based on a membership probability (soft clustering) and is based on integrating known labels and the search for subspaces into a model-based clustering approach. The different proposals are tested using different real and synthetic databases, and comparisons to other methods are also included when appropriate. Finally, as an example of real and current application, different machine learning tech¬niques, including one of the proposals of this work (the most sophisticated one) are applied to a task of one of the most challenging biological problems nowadays, the human brain model¬ing. Specifically, expert neuroscientists do not agree with a neuron classification for the brain cortex, which makes impossible not only any modeling attempt but also the day-to-day work without a common way to name neurons. Therefore, machine learning techniques may help to get an accepted solution to this problem, which can be an important milestone for future research in neuroscience. Resumen Las técnicas de aprendizaje automático se usan para extraer información valiosa de datos. Hoy en día, la importancia de estas técnicas está siendo incluso mayor, debido a que la evolución en la adquisición y almacenamiento de datos está llevando a datos con diferentes características que deben ser explotadas. Por lo tanto, los avances en la recolección de datos deben ir ligados a avances en las técnicas de aprendizaje automático para resolver nuevos retos que pueden aparecer, tanto en aplicaciones académicas como reales. Existen varias técnicas de aprendizaje automático dependiendo de las características de los datos y del propósito. La clasificación no supervisada o clustering es una de las técnicas más conocidas cuando los datos carecen de supervisión (datos sin etiqueta), siendo el objetivo descubrir nuevos grupos (agrupaciones) dependiendo de la similitud de los datos. Por otra parte, la clasificación supervisada necesita datos con supervisión (datos etiquetados) y su objetivo es realizar predicciones sobre las etiquetas de nuevos datos. La presencia de las etiquetas es una característica muy importante que guía no solo el aprendizaje sino también otras tareas relacionadas como la validación. Cuando solo algunos de los datos disponibles están etiquetados, mientras que el resto permanece sin etiqueta (datos parcialmente etiquetados), ni el clustering ni la clasificación supervisada se pueden utilizar. Este escenario, que está llegando a ser común hoy en día debido a la ignorancia o el coste del proceso de etiquetado, es abordado utilizando técnicas de aprendizaje semi-supervisadas. Esta tesis trata la rama del aprendizaje semi-supervisado más cercana al clustering, es decir, descubrir agrupaciones utilizando las etiquetas disponibles como apoyo para guiar y mejorar el proceso de clustering. Otra característica importante de los datos, distinta de la presencia de etiquetas, es la relevancia o no de los atributos de los datos. Los datos se caracterizan por atributos, pero es posible que no todos ellos sean relevantes, o igualmente relevantes, para el proceso de aprendizaje. Una tendencia reciente en clustering, relacionada con la relevancia de los datos y llamada clustering en subespacios, afirma que agrupaciones diferentes pueden estar descritas por subconjuntos de atributos diferentes. Esto difiere de las soluciones tradicionales para el problema de la relevancia de los datos, en las que se busca un único subconjunto de atributos (normalmente el conjunto original de atributos) y se utiliza para realizar el proceso de clustering. La cercanía de este trabajo con el clustering lleva al primer objetivo de la tesis. Como se ha comentado previamente, la validación en clustering es una tarea difícil debido a la ausencia de etiquetas. Aunque existen muchos índices que pueden usarse para evaluar la calidad de las soluciones de clustering, estas validaciones dependen de los algoritmos de clustering utilizados y de las características de los datos. Por lo tanto, en el primer objetivo tres conocidos algoritmos se usan para agrupar datos con valores atípicos y ruido para estudiar de forma crítica cómo se comportan algunos de los índices de validación más conocidos. El objetivo principal de este trabajo sin embargo es combinar clustering semi-supervisado con clustering en subespacios para obtener soluciones de clustering que puedan ser validadas de forma correcta utilizando índices conocidos u opiniones expertas. Se proponen dos algoritmos desde dos puntos de vista diferentes para descubrir agrupaciones caracterizadas por diferentes subespacios. Para el primer algoritmo, las etiquetas disponibles se usan para bus¬car en primer lugar los subespacios antes de buscar las agrupaciones. Este algoritmo asigna cada instancia a un único cluster (hard clustering) y se basa en mapear las etiquetas cono-cidas a subespacios utilizando técnicas de clasificación supervisada. El segundo algoritmo utiliza las etiquetas disponibles para buscar de forma simultánea los subespacios y las agru¬paciones en un proceso iterativo. Este algoritmo asigna cada instancia a cada cluster con una probabilidad de pertenencia (soft clustering) y se basa en integrar las etiquetas conocidas y la búsqueda en subespacios dentro de clustering basado en modelos. Las propuestas son probadas utilizando diferentes bases de datos reales y sintéticas, incluyendo comparaciones con otros métodos cuando resulten apropiadas. Finalmente, a modo de ejemplo de una aplicación real y actual, se aplican diferentes técnicas de aprendizaje automático, incluyendo una de las propuestas de este trabajo (la más sofisticada) a una tarea de uno de los problemas biológicos más desafiantes hoy en día, el modelado del cerebro humano. Específicamente, expertos neurocientíficos no se ponen de acuerdo en una clasificación de neuronas para la corteza cerebral, lo que imposibilita no sólo cualquier intento de modelado sino también el trabajo del día a día al no tener una forma estándar de llamar a las neuronas. Por lo tanto, las técnicas de aprendizaje automático pueden ayudar a conseguir una solución aceptada para este problema, lo cual puede ser un importante hito para investigaciones futuras en neurociencia.
Resumo:
In this poster paper we present an overview of knOWLearn, a novel approach for building domain ontologies in a semi-automatic fashion.
Resumo:
A notorious advantage of wireless transmission is a significant reduction and simplification in wiring and harness. There are a lot of applications of wireless systems, but in many occasions sensor nodes require a specific housing to protect the electronics from hush environmental conditions. Nowadays the information is scarce and nonspecific on the dynamic behaviour of WSN and RFID. Therefore the purpose of this study is to evaluate the dynamic behaviour of the sensors. A series of trials were designed and performed covering temperature steps between cold room (5 °C), room temperature (23 °C) and heated environment (35 °C). As sensor nodes: three Crossbow motes, a surface mounted Nlaza module (with sensor Sensirion located on the motherboard), an aerial mounted Nlaza where the Sensirion sensor stayed at the end of a cable), and four tags RFID Turbo Tag (T700 model with and without housing), and 702-B (with and without housing). To assess the dynamic behaviour a first order response approach is used and fitted with dedicated optimization tools programmed in Matlab that allow extracting the time response (?) and corresponding determination coefficient (r2) with regard to experimental data. The shorter response time (20.9 s) is found for the uncoated T 700 tag which encapsulated version provides a significantly higher response (107.2 s). The highest ? corresponds to the Crossbow modules (144.4 s), followed by the surface mounted Nlaza module (288.1 s), while the module with aerial mounted sensor gives a response certainly close above to the T700 without coating (42.8 s). As a conclusion, the dynamic response of temperature sensors within wireless and RFID nodes is dramatically influenced by the way they are housed (to protect them from the environment) as well as by the heat released by the node electronics itself; its characterization is basic to allow monitoring of high rate temperature changes and to certify the cold chain. Besides the time to rise and to recover is significantly different being mostly higher for the latter than for the former.
Resumo:
A substellar-mass object in orbit at about 300 astronomical units from the young low-mass star G 196-3 was detected by direct imaging. Optical and infrared photometry and low- and intermediate-resolution spectroscopy of the faint companion, hereafter referred to as G 196-3B, confirm its cool atmosphere ?15 Jupiter masses. The separation and allow its mass to be estimated at 25?10 between the objects and their mass ratio suggest the fragmentation of a collapsing cloud as the most likely origin for G 196-3B, but alternatively it could have originated from a protoplanetary disc that has been dissipated. Whatever the formation process was, the young age of the primary star (about 100 million years) demonstrates that substellar companions can form on short time scales.
Resumo:
El incremento experimentado por la construcción de grandes túneles ha provocado un renovado interés por el estudio de las diferentes situaciones de accidente que se pueden producir durante su vida de servicio. Entre ellos uno de los más complicados y peor conocidos es el caso de un accidente con fuego en el interior del túnel. Mediante el uso de un método numérico de volúmenes finitos este articulo presenta un estudio sobre las implicaciones del uso de trampillas de extracción de humos así como algunas conclusiones obtenidas tras el estudio de los resultados. La nueva red de carreteras es uno de los factores básicos de cohesión entre los países de la Unión Europea. Las estrictas condiciones impuestas en su proyecto para favorecer la rápida distribución de personas y bienes, tienen gran influencia en la construcción de túneles mayores y más largos que, además, sufren el paso de un numero de vehículos en continuo crecimiento. Este aumento de tráfico se ve acompañado por una demanda de confort y seguridad especialmente en lo que se refiere a la ventilación necesaria para mantener controlada la contaminación en el interior del túnel así como en las precauciones que deben establecerse para limitar el daño y las muertes que puedan surgir durante el desarrollo de un incendio. En túneles urbanos, donde la contaminación provocada por el trafico puede afectar al ambiente, tradicionalmente se ha tomado como factor dimensionante la situación de servicio en condiciones de intensidad nominal. Sin embargo, la reducción en la emisión de contaminantes como consecuencia de reglamentos mas estrictos ha inclinado la balanza hacia el esceiario de fuego como el más necesitado de estudio. En medio urbano esa situación se complica en caso de tráfico saturado. Puesto que esta condición "accidental" es independiente del tráfico que cruza el túnel (salvo a efectos de las filosofías de actuación sobre los sistemas de ventilación) se concluye que esta situación es la condición dimensionante del sistema. Existe una larga tradición en el estudio de estos temas que puede seguirse en la serie de Conferencias organizadas por la BHRA desde 1975 o las recomendaciones preparadas por el Grupo de túneles de la PIARC.
Resumo:
El objetivo principal de la ventilación es garantizar las condiciones de explotación en servicio y de seguridad en caso de incendio en el interior del túnel. En la mayoría de los túneles de una cierta importancia esto se consigue mediante la disposición de instalaciones mecánicas de ventilación que permiten forzar el desplazamiento del aire de la forma deseada. Los principios de funcionamiento que pueden encontrarse en la práctica son muy diversos aunque pueden clasificarse según el comportamiento del aire en el interior del túnel (PIARC, Circular Francesa) o en función de si existen o no elementos de separación entre la zona reservada a la circulación de los vehículos y los conductos de ventilación (Recomendaciones suizas). Siguiendo este último principio de clasificación, los que no presentan losa intermedia son aquellos en los que se emplean aceleradores y/o pozos de ventilación para conseguir las condiciones adecuadas. En cuanto a los sistemas que presentan losa intermedia existen dos principalmente el transversal y el semitransversal. En los sistemas de tipo transversal, durante el funcionamiento en servicio, en un tramo determinado del túnel el aporte de aire fresco es el mismo que el de extracción de tal forma que, en condiciones de igualdad de presión entre sus extremos, no existe corriente longitudinal. En cuanto a la sección transversal, el conducto de aire viciado debe situarse en la parte superior ocupando la sección superior de la bóveda de tal forma que permita la extracción de humos en caso de incendio a través de exutorios. En cambio, el aporte de aire fresco se suele realizar mediante aberturas situadas al nivel de la calzada o en la parte superior (aunque es desaconsejable) alimentadas desde conductos que pueden ir situados bajo la calzada o compartiendo la sección superior, en cuyo caso se dispone un tabique de separación entre ambos. En los sistemas de tipo semitransversal, durante el funcionamiento en servicio, se pretende dar a cada zona del túnel la cantidad de aire fresco necesario para diluir los contaminantes que allí se producen. El aire fresco se introduce a lo largo de todo el túnel a través de una serie de aberturas que comunican un conducto auxiliar situado en un falso techo del túnel. El aire contaminado sale a través de las bocas. Para prevenir el caso de incendio este tipo de ventilación puede estar preparada para invertir el sentido del aire y pasar a una aspiración a lo largo del túnel o en zonas localizadas. En este caso se denomina semitransversal reversible. En el caso de túneles de gran longitud es habitual la subdivisión del túnel en zonas o cantones que son alimentados desde una misma estación de ventilación, para lo que es preciso dividir el conducto de distribución en dos o más partes, quedando una de las secciones destinada a la distribución de aire al interior del túnel y la otra como transición al siguiente cantón. En el caso de sistemas de ventilación de tipo semitransversal reversible cada uno de los conductos puede ser empleado tanto para el aporte de aire fresco (sobrepresión) como la extracción de humos en caso de incendio (subpresión). Si a esto se añade la disposición de sistemas de ventiladores redundantes que permitan el auxilio en caso de fallo de algún equipo, es necesaria la disposición de complejos sistemas de registros para conectar los ventiladores. El tabique de separación entre los conductos se ve por tanto sometido a diferencias de presiones según el modo de funcionamiento, por lo que son precisos distintos escenarios de hipótesis de carga.
Resumo:
Sustaining irrigated agriculture to meet food production needs while maintaining aquatic ecosystems is at the heart of many policy debates in various parts of the world, especially in arid and semi-arid areas. Researchers and practitioners are increasingly calling for integrated approaches, and policy-makers are progressively supporting the inclusion of ecological and social aspects in water management programs. This paper contributes to this policy debate by providing an integrated economic-hydrologic modeling framework that captures the socio-economic and environmental effects of various policy initiatives and climate variability. This modeling integration includes a risk-based economic optimization model and a hydrologic water management simulation model that have been specified for the Middle Guadiana basin, a vulnerable drought-prone agro-ecological area with highly regulated river systems in southwest Spain. Namely, two key water policy interventions were investigated: the implementation of minimum environmental flows (supported by the European Water Framework Directive, EU WFD), and a reduction in the legal amount of water delivered for irrigation (planned measure included in the new Guadiana River Basin Management Plan, GRBMP, still under discussion). Results indicate that current patterns of excessive water use for irrigation in the basin may put environmental flow demands at risk, jeopardizing the WFD s goal of restoring the ?good ecological status? of water bodies by 2015. Conflicts between environmental and agricultural water uses will be stressed during prolonged dry episodes, and particularly in summer low-flow periods, when there is an important increase of crop irrigation water requirements. Securing minimum stream flows would entail a substantial reduction in irrigation water use for rice cultivation, which might affect the profitability and economic viability of small rice-growing farms located upstream in the river. The new GRBMP could contribute to balance competing water demands in the basin and to increase economic water productivity, but might not be sufficient to ensure the provision of environmental flows as required by the WFD. A thoroughly revision of the basin s water use concession system for irrigation seems to be needed in order to bring the GRBMP in line with the WFD objectives. Furthermore, the study illustrates that social, economic, institutional, and technological factors, in addition to bio-physical conditions, are important issues to be considered for designing and developing water management strategies. The research initiative presented in this paper demonstrates that hydro-economic models can explicitly integrate all these issues, constituting a valuable tool that could assist policy makers for implementing sustainable irrigation policies.
Resumo:
We present a quasi-monotone semi-Lagrangian particle level set (QMSL-PLS) method for moving interfaces. The QMSL method is a blend of first order monotone and second order semi-Lagrangian methods. The QMSL-PLS method is easy to implement, efficient, and well adapted for unstructured, either simplicial or hexahedral, meshes. We prove that it is unconditionally stable in the maximum discrete norm, � · �h,∞, and the error analysis shows that when the level set solution u(t) is in the Sobolev space Wr+1,∞(D), r ≥ 0, the convergence in the maximum norm is of the form (KT/Δt)min(1,Δt � v �h,∞ /h)((1 − α)hp + hq), p = min(2, r + 1), and q = min(3, r + 1),where v is a velocity. This means that at high CFL numbers, that is, when Δt > h, the error is O( (1−α)hp+hq) Δt ), whereas at CFL numbers less than 1, the error is O((1 − α)hp−1 + hq−1)). We have tested our method with satisfactory results in benchmark problems such as the Zalesak’s slotted disk, the single vortex flow, and the rising bubble.
Resumo:
El incremento experimentado por la construcción de grandes túneles ha provocado un renovado interés por el estudio de las diferentes situaciones de accidente que se pueden producir durante su vida de servicio. Entre ellos uno de los más complicados y peor conocidos es el caso de un accidente con fuego en el interior del túnel. Mediante el uso de un método numérico de volúmenes finitos este articulo presenta un estudio sobre las implicaciones del uso de trampillas de extracción de humos así como algunas conclusiones obtenidas tras el estudio de los resultados.