953 resultados para Artificial satellites in navigation.
Resumo:
The contribution of Starlette, Stella, and AJI-SAI is currently neglected when defining the International Terrestrial Reference Frame, despite a long time series of precise SLR observations and a huge amount of available data. The inferior accuracy of the orbits of low orbiting geodetic satellites is the main reason for this neglect. The Analysis Centers of the International Laser Ranging Service (ILRS ACs) do, however, consider including low orbiting geodetic satellites for deriving the standard ILRS products based on LAGEOS and Etalon satellites, instead of the sparsely observed, and thus, virtually negligible Etalons. We process ten years of SLR observations to Starlette, Stella, AJISAI, and LAGEOS and we assess the impact of these Low Earth Orbiting (LEO) SLR satellites on the SLR-derived parameters. We study different orbit parameterizations, in particular different arc lengths and the impact of pseudo-stochastic pulses and dynamical orbit parameters on the quality of the solutions. We found that the repeatability of the East and North components of station coordinates, the quality of polar coordinates, and the scale estimates of the reference are improved when combining LAGEOS with low orbiting SLR satellites. In the multi-SLR solutions, the scale and the Z component of geocenter coordinates are less affected by deficiencies in solar radiation pressure modeling than in the LAGEOS-1/2 solutions, due to substantially reduced correlations between the Z geocenter coordinate and empirical orbit parameters. Eventually, we found that the standard values of Center-of-mass corrections (CoM) for geodetic LEO satellites are not valid for the currently operating SLR systems. The variations of station-dependent differential range biases reach 52 and 25 mm for AJISAI and Starlette/Stella, respectively, which is why estimating station dependent range biases or using station-dependent CoM, instead of one value for all SLR stations, is strongly recommended.This clearly indicates that the ILRS effort to produce CoM corrections for each satellite, which are site-specific and depend on the system characteristics at the time of tracking,is very important and needs to be implemented in the SLR data analysis.
Resumo:
Con el objeto de ajustar un método de evaluación a campo para facilitar la selección de clones de ajo (Allium sativum L.) con resistencia a Penicillium allii, se realizó un ensayo replicado en el cual se midió la respuesta de tres clones experimentales a la infección, en dos épocas de plantación. Los tratamientos incluyeron combinaciones de presencia o ausencia de: a) desinfección de la "semilla", b) heridas artificiales en los bulbillos, c) inoculación artificial. Los bulbillos con la hoja envolvente se desinfectaron con una solución diluida de hipoclorito de sodio. La inoculación se realizó mediante la inmersión en una solución de 106 esporas•ml-1. Las heridas se realizaron con una lanceta (blood lancet). Los bulbillos se incubaron en cámara húmeda durante 24 horas a 20 °C, antes de plantación. Las variables respuestas computadas fueron las siguientes: número de plantas muertas, y vivas con síntomas y sin síntomas, a los 152 días de plantación en la primera época y 118 días en la segunda; número de bulbos por calibres y rendimiento a cosecha. La información obtenida se analizó a través de correspondencia simple, diferencia de proporciones y análisis paramétricos. Se detectaron mayores diferencias entre los tratamientos en la tasa de sobrevivencia y en la proporción de calibres comerciales en la época tardía. No se observaron diferencias (p < 0,05) del rendimiento en la plantación temprana. La herida fue determinante en el ingreso del patógeno. Los tratamientos quedaron limitados a un testigo: desinfectado, no inoculado y sin herida, y a un tratamiento: desinfectado, con inoculación y herida. Con respecto a la época, resultó conveniente la evaluación en plantaciones tardías porque se expresan mejor las diferencias entre los tratamientos.
Resumo:
En la tesis se consideran los procesos de cambio conceptual, teórico y metodológico que modelaron el desarrollo de los estudios sociales de la ciencia desde su emergencia hasta la actualidad, con el objeto de analizar los alcances y límites de las perspectivas humanistas y poshumanistas en la comprensión del vínculo "humano-no humano". Los estudios sociales de la ciencia conforman un campo marginal tanto dentro de los estudios metacientíficos como de la disciplina que les dio origen: la sociología. Si bien en las últimas décadas éstos han dado lugar a un significativo progreso en la comprensión cualitativa y cuantitativa de la ciencia y la tecnología, al responder primordialmente a la inquietud empírico-comparativa de programas de investigación de corte institucionalista han tendido a relegar de sus agendas de investigación el análisis epistemológico de los modelos explicativos considerados. En este sentido, en su afán de dar cuenta del carácter social de la ciencia apenas si han reparado en los nexos que pueden establecerse entre la explicación social de la ciencia y la explicación científica de "lo social". Con el objeto de atender a ello la tesis analiza las implicancias epistemológicas, metodológicas y ontológicas del estudio social de la ciencia considerando a la relación "humano-máquina" o "humano-no humano" como un hilo de Ariadna en la identificación de rupturas y continuidades en la consideración del vínculo "ciencia-sociedad". Desde esta perspectiva se estudia la dinámica de cambio conceptual, teórico y/o metodológico que dio lugar a la emergencia y desarrollo del estudio social de la ciencia en relación con aquella que modeló al estudio científico de "lo social", se identifican los cambios epistemológicos, ontológicos y metodológicos que configuraron a la dimensión no humana como un tópico relevante, cuando no ineludible, en la explicación social de la ciencia, se examinan las implicancias de la incorporación de los objetos naturales y/o tecnológicos a los modelos explicativos del estudio social de la ciencia en el contexto de la crítica poshumanista a las teorías de la acción que han asumido al sujeto como epicentro del análisis, y se analiza el impacto de la mencionada crítica en términos de un reordenamiento de los vínculos entre el estudio social de la ciencia y el estudio científico de "lo social". De este modo se ofrece una faceta de los estudios sociales de la ciencia inadvertida por buena parte de la literatura especializada, más atenta a la confrontación de imágenes sociológicas y filosóficas de la ciencia en el contexto de la denominada "guerra de las ciencias" que a sus implicancias epistemológicas para el estudio científico de "lo social". Enfatizando así el anclaje disciplinar del estudio social de la ciencia no se suscribe una visión "internalista" del progreso epistémico, sino que, por el contrario, se sugiere que la simultánea consideración de factores disciplinares y extra disciplinares resulta una estrategia tan fructífera como innovadora para analizar un campo que, al extender el dominio de la explicación social al ámbito de los fenómenos físico-naturales, ha dado lugar a uno de los más complejos casos de interacción disciplinar.
Resumo:
En la tesis se consideran los procesos de cambio conceptual, teórico y metodológico que modelaron el desarrollo de los estudios sociales de la ciencia desde su emergencia hasta la actualidad, con el objeto de analizar los alcances y límites de las perspectivas humanistas y poshumanistas en la comprensión del vínculo "humano-no humano". Los estudios sociales de la ciencia conforman un campo marginal tanto dentro de los estudios metacientíficos como de la disciplina que les dio origen: la sociología. Si bien en las últimas décadas éstos han dado lugar a un significativo progreso en la comprensión cualitativa y cuantitativa de la ciencia y la tecnología, al responder primordialmente a la inquietud empírico-comparativa de programas de investigación de corte institucionalista han tendido a relegar de sus agendas de investigación el análisis epistemológico de los modelos explicativos considerados. En este sentido, en su afán de dar cuenta del carácter social de la ciencia apenas si han reparado en los nexos que pueden establecerse entre la explicación social de la ciencia y la explicación científica de "lo social". Con el objeto de atender a ello la tesis analiza las implicancias epistemológicas, metodológicas y ontológicas del estudio social de la ciencia considerando a la relación "humano-máquina" o "humano-no humano" como un hilo de Ariadna en la identificación de rupturas y continuidades en la consideración del vínculo "ciencia-sociedad". Desde esta perspectiva se estudia la dinámica de cambio conceptual, teórico y/o metodológico que dio lugar a la emergencia y desarrollo del estudio social de la ciencia en relación con aquella que modeló al estudio científico de "lo social", se identifican los cambios epistemológicos, ontológicos y metodológicos que configuraron a la dimensión no humana como un tópico relevante, cuando no ineludible, en la explicación social de la ciencia, se examinan las implicancias de la incorporación de los objetos naturales y/o tecnológicos a los modelos explicativos del estudio social de la ciencia en el contexto de la crítica poshumanista a las teorías de la acción que han asumido al sujeto como epicentro del análisis, y se analiza el impacto de la mencionada crítica en términos de un reordenamiento de los vínculos entre el estudio social de la ciencia y el estudio científico de "lo social". De este modo se ofrece una faceta de los estudios sociales de la ciencia inadvertida por buena parte de la literatura especializada, más atenta a la confrontación de imágenes sociológicas y filosóficas de la ciencia en el contexto de la denominada "guerra de las ciencias" que a sus implicancias epistemológicas para el estudio científico de "lo social". Enfatizando así el anclaje disciplinar del estudio social de la ciencia no se suscribe una visión "internalista" del progreso epistémico, sino que, por el contrario, se sugiere que la simultánea consideración de factores disciplinares y extra disciplinares resulta una estrategia tan fructífera como innovadora para analizar un campo que, al extender el dominio de la explicación social al ámbito de los fenómenos físico-naturales, ha dado lugar a uno de los más complejos casos de interacción disciplinar.
Resumo:
En la tesis se consideran los procesos de cambio conceptual, teórico y metodológico que modelaron el desarrollo de los estudios sociales de la ciencia desde su emergencia hasta la actualidad, con el objeto de analizar los alcances y límites de las perspectivas humanistas y poshumanistas en la comprensión del vínculo "humano-no humano". Los estudios sociales de la ciencia conforman un campo marginal tanto dentro de los estudios metacientíficos como de la disciplina que les dio origen: la sociología. Si bien en las últimas décadas éstos han dado lugar a un significativo progreso en la comprensión cualitativa y cuantitativa de la ciencia y la tecnología, al responder primordialmente a la inquietud empírico-comparativa de programas de investigación de corte institucionalista han tendido a relegar de sus agendas de investigación el análisis epistemológico de los modelos explicativos considerados. En este sentido, en su afán de dar cuenta del carácter social de la ciencia apenas si han reparado en los nexos que pueden establecerse entre la explicación social de la ciencia y la explicación científica de "lo social". Con el objeto de atender a ello la tesis analiza las implicancias epistemológicas, metodológicas y ontológicas del estudio social de la ciencia considerando a la relación "humano-máquina" o "humano-no humano" como un hilo de Ariadna en la identificación de rupturas y continuidades en la consideración del vínculo "ciencia-sociedad". Desde esta perspectiva se estudia la dinámica de cambio conceptual, teórico y/o metodológico que dio lugar a la emergencia y desarrollo del estudio social de la ciencia en relación con aquella que modeló al estudio científico de "lo social", se identifican los cambios epistemológicos, ontológicos y metodológicos que configuraron a la dimensión no humana como un tópico relevante, cuando no ineludible, en la explicación social de la ciencia, se examinan las implicancias de la incorporación de los objetos naturales y/o tecnológicos a los modelos explicativos del estudio social de la ciencia en el contexto de la crítica poshumanista a las teorías de la acción que han asumido al sujeto como epicentro del análisis, y se analiza el impacto de la mencionada crítica en términos de un reordenamiento de los vínculos entre el estudio social de la ciencia y el estudio científico de "lo social". De este modo se ofrece una faceta de los estudios sociales de la ciencia inadvertida por buena parte de la literatura especializada, más atenta a la confrontación de imágenes sociológicas y filosóficas de la ciencia en el contexto de la denominada "guerra de las ciencias" que a sus implicancias epistemológicas para el estudio científico de "lo social". Enfatizando así el anclaje disciplinar del estudio social de la ciencia no se suscribe una visión "internalista" del progreso epistémico, sino que, por el contrario, se sugiere que la simultánea consideración de factores disciplinares y extra disciplinares resulta una estrategia tan fructífera como innovadora para analizar un campo que, al extender el dominio de la explicación social al ámbito de los fenómenos físico-naturales, ha dado lugar a uno de los más complejos casos de interacción disciplinar.
Resumo:
African dust outbreaks are the result of complex interactions between the land, atmosphere, and oceans, and only recently has a large body of work begun to emerge that aims to understand the controls on-and impacts of-African dust. At the same time, long-term records of dust outbreaks are either inferred from visibility data from weather stations or confined to a few in situ observational sites. Satellites provide the best opportunity for studying the large-scale characteristics of dust storms, but reliable records of dust are generally on the scale of a decade or less. Here the authors develop a simple model for using modern and historical data from meteorological satellites, in conjunction with a proxy record for atmospheric dust, to extend satellite-retrieved dust optical depth over the northern tropical Atlantic Ocean from 1955 to 2008. The resultant 54-yr record of dust has a spatial resolution of 1° and a monthly temporal resolution. From analysis of the historical dust data, monthly tropical northern Atlantic dust cover is bimodal, has a strong annual cycle, peaked in the early 1980s, and shows minimums in dustiness during the beginning and end of the record. These dust optical depth estimates are used to calculate radiative forcing and heating rates from the surface through the top of the atmosphere over the last half century. Radiative transfer simulations show a large net negative dust forcing from the surface through the top of the atmosphere, also with a distinct annual cycle, and mean tropical Atlantic monthly values of the surface forcing range from -3 to -9 W/m**2. Since the surface forcing is roughly a factor of 3 larger in magnitude than the top-of-the-atmosphere forcing, there is also a positive heating rate of the midtroposphere by dust.
Resumo:
An analysis of a stretch of coastline shows multiple alterations through environmental climate actions. The narrow, fragile line displays singularities due to three basic causes. The first is the discontinuity in feed or localised loss of solid coastal material. Called massics, their simplest examples are deltas and undersea canyons. The second is due to a brusque change in the alignment of the shoreline’s edge, headlands, groins, harbour and defence works. Given the name of geometric singularities, their simplest uses are artificial beaches in the shelter of a straight groin or spits. The third is due to littoral dynamics, emerged or submerged obstacles which diffract and refract wave action, causing a change in the sea level’s super-elevation in breaker areas. Called dynamics, the simplest examples are salients, tombolos and shells. Discussion of the causes giving rise to variations in the coastline and formation of singularities is the raison d’être of investigation, using actual cases to check the suitability of the classification proposed, the tangential or differential action of waves on the coastal landscape in addition to possible simple, compound and complex shapes detected in nature, both in erosion and deposit processes
Resumo:
DynaLearn (http://www.DynaLearn.eu) develops a cognitive artefact that engages learners in an active learning by modelling process to develop conceptual system knowledge. Learners create external representations using diagrams. The diagrams capture conceptual knowledge using the Garp3 Qualitative Reasoning (QR) formalism [2]. The expressions can be simulated, confronting learners with the logical consequences thereof. To further aid learners, DynaLearn employs a sequence of knowledge representations (Learning Spaces, LS), with increasing complexity in terms of the modelling ingredients a learner can use [1]. An online repository contains QR models created by experts/teachers and learners. The server runs semantic services [4] to generate feedback at the request of learners via the workbench. The feedback is communicated to the learner via a set of virtual characters, each having its own competence [3]. A specific feedback thus incorporates three aspects: content, character appearance, and a didactic setting (e.g. Quiz mode). In the interactive event we will demonstrate the latest achievements of the DynaLearn project. First, the 6 learning spaces for learners to work with. Second, the generation of feedback relevant to the individual needs of a learner using Semantic Web technology. Third, the verbalization of the feedback via different animated virtual characters, notably: Basic help, Critic, Recommender, Quizmaster & Teachable agen
Resumo:
La mayoría de las estructuras de hormigón pretensadas construidas en los últimos 50 años han demostrado una excelente durabilidad cuando su construcción se realiza atendiendo las recomendaciones de un buen diseño así como una buena ejecución y puesta en obra de la estructura. Este hecho se debe en gran parte al temor que despierta el fenómeno de la corrosión bajo tensión típico de las armaduras de acero de alta resistencia. Menos atención se ha prestado a la susceptibilidad a la corrosión bajo tensión de los anclajes de postensado, posiblemente debido a que se han reportado pocos casos de fallos catastróficos. El concepto de Tolerancia al Daño y la Mecánica de la Fractura en estructuras de Ingeniería Civil ha empezado a incorporarse recientemente en algunas normas de diseño y cálculo de estructuras metálicas, sin embargo, aún está lejos de ser asimilado y empleado habitualmente por los ingenieros en sus cálculos cuando la ocasión lo requiere. Este desconocimiento de los aspectos relacionados con la Tolerancia al Daño genera importantes gastos de mantenimiento y reparación. En este trabajo se ha estudiado la aplicabilidad de los conceptos de la Mecánica de la Fractura a los componentes de los sistemas de postensado empleados en ingeniería civil, empleándolo para analizar la susceptibilidad de las armaduras activas frente a la corrosión bajo tensiones y a la pérdida de capacidad portante de las cabezas de anclajes de postensado debido a la presencia de defectos. Con este objeto se han combinado tanto técnicas experimentales como numéricas. Los defectos superficiales en los alambres de pretensado no se presentan de manera aislada si no que existe una cierta continuidad en la dirección axial así como un elevado número de defectos. Por este motivo se ha optado por un enfoque estadístico, que es más apropiado que el determinístico. El empleo de modelos estadísticos basados en la teoría de valores extremos ha permitido caracterizar el estado superficial en alambres de 5,2 mm de diámetro. Por otro lado la susceptibilidad del alambre frente a la corrosión bajo tensión ha sido evaluada mediante la realización de una campaña de ensayos de acuerdo con la actual normativa que ha permitido caracterizar estadísticamente su comportamiento. A la vista de los resultados ha sido posible evaluar como los parámetros que definen el estado superficial del alambre pueden determinar la durabilidad de la armadura atendiendo a su resistencia frente a la corrosión bajo tensión, evaluada mediante los ensayos que especifica la normativa. En el caso de las cabezas de anclaje de tendones de pretensado, los defectos se presentan de manera aislada y tienen su origen en marcas, arañazos o picaduras de corrosión que pueden producirse durante el proceso de fabricación, transporte, manipulación o puesta en obra. Dada la naturaleza de los defectos, el enfoque determinístico es más apropiado que el estadístico. La evaluación de la importancia de un defecto en un elemento estructural requiere la estimación de la solicitación local que genera el defecto, que permite conocer si el defecto es crítico o si puede llegar a serlo, si es que progresa con el tiempo (por fatiga, corrosión, una combinación de ambas, etc.). En este trabajo los defectos han sido idealizados como grietas, de manera que el análisis quedara del lado de la seguridad. La evaluación de la solicitación local del defecto ha sido calculada mediante el empleo de modelos de elementos finitos de la cabeza de anclaje que simulan las condiciones de trabajo reales de la cabeza de anclaje durante su vida útil. A partir de estos modelos numéricos se ha analizado la influencia en la carga de rotura del anclaje de diversos factores como la geometría del anclaje, las condiciones del apoyo, el material del anclaje, el tamaño del defecto su forma y su posición. Los resultados del análisis numérico han sido contrastados satisfactoriamente mediante la realización de una campaña experimental de modelos a escala de cabezas de anclaje de Polimetil-metacrilato en los que artificialmente se han introducido defectos de diversos tamaños y en distintas posiciones. ABSTRACT Most of the prestressed concrete structures built in the last 50 years have demonstrated an excellent durability when they are constructed in accordance with the rules of good design, detailing and execution. This is particularly true with respect to the feared stress corrosion cracking, which is typical of high strength prestressing steel wires. Less attention, however, has been paid to the stress corrosion cracking susceptibility of anchorages for steel tendons for prestressing concrete, probably due to the low number of reported failure cases. Damage tolerance and fracture mechanics concepts in civil engineering structures have recently started to be incorporated in some design and calculation rules for metallic structures, however it is still far from being assimilated and used by civil engineers in their calculations on a regular basis. This limited knowledge of the damage tolerance basis could lead to significant repair and maintenance costs. This work deals with the applicability of fracture mechanics and damage tolerance concepts to the components of prestressed systems, which are used in civil engineering. Such concepts have been applied to assess the susceptibility of the prestressing steel wires to stress corrosion cracking and the reduction of load bearing capability of anchorage devices due to the presence of defects. For this purpose a combination of experimental work and numerical techniques have been performed. Surface defects in prestressing steel wires are not shown alone, though a certain degree of continuity in the axial direction exist. A significant number of such defects is also observed. Hence a statistical approach was used, which is assumed to be more appropriate than the deterministic approach. The use of statistical methods based in extreme value theories has allowed the characterising of the surface condition of 5.2 mm-diameter wires. On the other hand the stress corrosion cracking susceptibility of the wire has been assessed by means of an experimental testing program in line with the current regulations, which has allowed statistical characterisasion of their performances against stress corrosion cracking. In the light of the test results, it has been possible to evaluate how the surface condition parameters could determine the durability of the active metal armour regarding to its resistance against stress corrosion cracking assessed by means of the current testing regulations. In the case of anchorage devices for steel tendons for prestressing concrete, the damage is presented as point defects originating from dents, scratches or corrosion pits that could be produced during the manufacturing proccess, transport, handling, assembly or use. Due to the nature of these defects, in this case the deterministic approach is more appropriate than the statistical approach. The assessment of the relevancy of defect in a structural component requires the computation of the stress intensity factors, which in turn allow the evaluation of whether the size defect is critical or could become critical with the progress of time (due to fatigue, corrosion or a combination of both effects). In this work the damage is idealised as tiny cracks, a conservative hypothesis. The stress intensity factors have been calculated by means of finite element models of the anchorage representing the real working conditions during its service life. These numeric models were used to assess the impact of some factors on the rupture load of the anchorage, such the anchorage geometry, material, support conditions, defect size, shape and its location. The results from the numerical analysis have been succesfully correlated against the results of the experimental testing program of scaled models of the anchorages in poly-methil methacrylate in which artificial damage in several sizes and locations were introduced.
Resumo:
This work explores the automatic recognition of physical activity intensity patterns from multi-axial accelerometry and heart rate signals. Data collection was carried out in free-living conditions and in three controlled gymnasium circuits, for a total amount of 179.80 h of data divided into: sedentary situations (65.5%), light-to-moderate activity (17.6%) and vigorous exercise (16.9%). The proposed machine learning algorithms comprise the following steps: time-domain feature definition, standardization and PCA projection, unsupervised clustering (by k-means and GMM) and a HMM to account for long-term temporal trends. Performance was evaluated by 30 runs of a 10-fold cross-validation. Both k-means and GMM-based approaches yielded high overall accuracy (86.97% and 85.03%, respectively) and, given the imbalance of the dataset, meritorious F-measures (up to 77.88%) for non-sedentary cases. Classification errors tended to be concentrated around transients, what constrains their practical impact. Hence, we consider our proposal to be suitable for 24 h-based monitoring of physical activity in ambulatory scenarios and a first step towards intensity-specific energy expenditure estimators
Resumo:
Objectives: A recently introduced pragmatic scheme promises to be a useful catalog of interneuron names.We sought to automatically classify digitally reconstructed interneuronal morphologies according tothis scheme. Simultaneously, we sought to discover possible subtypes of these types that might emergeduring automatic classification (clustering). We also investigated which morphometric properties weremost relevant for this classification.Materials and methods: A set of 118 digitally reconstructed interneuronal morphologies classified into thecommon basket (CB), horse-tail (HT), large basket (LB), and Martinotti (MA) interneuron types by 42 of theworld?s leading neuroscientists, quantified by five simple morphometric properties of the axon and fourof the dendrites. We labeled each neuron with the type most commonly assigned to it by the experts. Wethen removed this class information for each type separately, and applied semi-supervised clustering tothose cells (keeping the others? cluster membership fixed), to assess separation from other types and lookfor the formation of new groups (subtypes). We performed this same experiment unlabeling the cells oftwo types at a time, and of half the cells of a single type at a time. The clustering model is a finite mixtureof Gaussians which we adapted for the estimation of local (per-cluster) feature relevance. We performedthe described experiments on three different subsets of the data, formed according to how many expertsagreed on type membership: at least 18 experts (the full data set), at least 21 (73 neurons), and at least26 (47 neurons).Results: Interneurons with more reliable type labels were classified more accurately. We classified HTcells with 100% accuracy, MA cells with 73% accuracy, and CB and LB cells with 56% and 58% accuracy,respectively. We identified three subtypes of the MA type, one subtype of CB and LB types each, andno subtypes of HT (it was a single, homogeneous type). We got maximum (adapted) Silhouette widthand ARI values of 1, 0.83, 0.79, and 0.42, when unlabeling the HT, CB, LB, and MA types, respectively,confirming the quality of the formed cluster solutions. The subtypes identified when unlabeling a singletype also emerged when unlabeling two types at a time, confirming their validity. Axonal morphometricproperties were more relevant that dendritic ones, with the axonal polar histogram length in the [pi, 2pi) angle interval being particularly useful.Conclusions: The applied semi-supervised clustering method can accurately discriminate among CB, HT, LB, and MA interneuron types while discovering potential subtypes, and is therefore useful for neuronal classification. The discovery of potential subtypes suggests that some of these types are more heteroge-neous that previously thought. Finally, axonal variables seem to be more relevant than dendritic ones fordistinguishing among the CB, HT, LB, and MA interneuron types.
Resumo:
El principal objetivo de la tesis es estudiar el acoplamiento entre los subsistemas de control de actitud y de control térmico de un pequeño satélite, con el fin de buscar la solución a los problemas relacionados con la determinación de los parámetros de diseño. Se considera la evolución de la actitud y de las temperaturas del satélite bajo la influencia de dos estrategias de orientación diferentes: 1) estabilización magnética pasiva de la orientación (PMAS, passive magnetic attitude stabilization), y 2) control de actitud magnético activo (AMAC, active magnetic attitude control). En primer lugar se presenta el modelo matemático del problema, que incluye la dinámica rotacional y el modelo térmico. En el problema térmico se considera un satélite cúbico modelizado por medio de siete nodos (seis externos y uno interno) aplicando la ecuación del balance térmico. Una vez establecido el modelo matemático del problema, se estudia la evolución que corresponde a las dos estrategias mencionadas. La estrategia PMAS se ha seleccionado por su simplicidad, fiabilidad, bajo coste, ahorrando consumo de potencia, masa coste y complejidad, comparado con otras estrategias. Se ha considerado otra estrategia de control que consigue que el satélite gire a una velocidad requerida alrededor de un eje deseado de giro, pudiendo controlar su dirección en un sistema inercial de referencia, ya que frecuentemente el subsistema térmico establece requisitos de giro alrededor de un eje del satélite orientado en una dirección perpendicular a la radiación solar incidente. En relación con el problema térmico, para estudiar la influencia de la velocidad de giro en la evolución de las temperaturas en diversos puntos del satélite, se ha empleado un modelo térmico linealizado, obtenido a partir de la formulación no lineal aplicando un método de perturbaciones. El resultado del estudio muestra que el tiempo de estabilización de la temperatura y la influencia de las cargas periódicas externas disminuye cuando aumenta la velocidad de giro. Los cambios de temperatura se reducen hasta ser muy pequeños para velocidades de rotación altas. En relación con la estrategia PMAC se ha observado que a pesar de su uso extendido entre los micro y nano satélites todavía presenta problemas que resolver. Estos problemas están relacionados con el dimensionamiento de los parámetros del sistema y la predicción del funcionamiento en órbita. Los problemas aparecen debido a la dificultad en la determinación de las características magnéticas de los cuerpos ferromagnéticos (varillas de histéresis) que se utilizan como amortiguadores de oscilaciones en los satélites. Para estudiar este problema se presenta un modelo analítico que permite estimar la eficiencia del amortiguamiento, y que se ha aplicado al estudio del comportamiento en vuelo de varios satélites, y que se ha empleado para comparar los resultados del modelo con los obtenidos en vuelo, observándose que el modelo permite explicar satisfactoriamente el comportamiento registrado. ABSTRACT The main objective of this thesis is to study the coupling between the attitude control and thermal control subsystems of a small satellite, and address the solution to some existing issues concerning the determination of their parameters. Through the thesis the attitude and temperature evolution of the satellite is studied under the influence of two independent attitude stabilization and control strategies: (1) passive magnetic attitude stabilization (PMAS), and (2) active magnetic attitude control (AMAC). In this regard the mathematical model of the problem is explained and presented. The mathematical model includes both the rotational dynamics and the thermal model. The thermal model is derived for a cubic satellite by solving the heat balance equation for 6 external and 1 internal nodes. Once established the mathematical model of the problem, the above mentioned attitude strategies were applied to the system and the temperature evolution of the 7 nodes of the satellite was studied. The PMAS technique has been selected to be studied due to its prevalent use, simplicity, reliability, and cost, as this strategy significantly saves the overall power, weight, cost, and reduces the complexity of the system compared to other attitude control strategies. In addition to that, another control law that provides the satellite with a desired spin rate along a desired axis of the satellite, whose direction can be controlled with respect to the inertial reference frame is considered, as the thermal subsystem of a satellite usually demands a spin requirement around an axis of the satellite which is positioned perpendicular to the direction of the coming solar radiation. Concerning the thermal problem, to study the influence of spin rate on temperature evolution of the satellite a linear approach of the thermal model is used, which is based on perturbation theory applied to the nonlinear differential equations of the thermal model of a spacecraft moving in a closed orbit. The results of this study showed that the temperature stabilization time and the periodic influence of the external thermal loads decreases by increasing the spin rate. However, the changes become insignificant for higher values of spin rate. Concerning the PMAS strategy, it was observed that in spite of its extended application to micro and nano satellites, still there are some issues to be solved regarding this strategy. These issues are related to the sizing of its system parameters and predicting the in-orbit performance. The problems were found to be rooted in the difficulties that exist in determining the magnetic characteristics of the ferromagnetic bodies (hysteresis rods) that are applied as damping devices on-board satellites. To address these issues an analytic model for estimating their damping efficiency is proposed and applied to several existing satellites in order to compare the results with their respective in-flight data. This model can explain the behavior showed by these satellites.
Resumo:
Parte de la investigación biomédica actual se encuentra centrada en el análisis de datos heterogéneos. Estos datos pueden tener distinto origen, estructura, y semántica. Gran cantidad de datos de interés para los investigadores se encuentran en bases de datos públicas, que recogen información de distintas fuentes y la ponen a disposición de la comunidad de forma gratuita. Para homogeneizar estas fuentes de datos públicas con otras de origen privado, existen diversas herramientas y técnicas que permiten automatizar los procesos de homogeneización de datos heterogéneos. El Grupo de Informática Biomédica (GIB) [1] de la Universidad Politécnica de Madrid colabora en el proyecto europeo P-medicine [2], cuya finalidad reside en el desarrollo de una infraestructura que facilite la evolución de los procedimientos médicos actuales hacia la medicina personalizada. Una de las tareas enmarcadas en el proyecto P-medicine que tiene asignado el grupo consiste en elaborar herramientas que ayuden a usuarios en el proceso de integración de datos contenidos en fuentes de información heterogéneas. Algunas de estas fuentes de información son bases de datos públicas de ámbito biomédico contenidas en la plataforma NCBI [3] (National Center for Biotechnology Information). Una de las herramientas que el grupo desarrolla para integrar fuentes de datos es Ontology Annotator. En una de sus fases, la labor del usuario consiste en recuperar información de una base de datos pública y seleccionar de forma manual los resultados relevantes. Para automatizar el proceso de búsqueda y selección de resultados relevantes, por un lado existe un gran interés en conseguir generar consultas que guíen hacia resultados lo más precisos y exactos como sea posible, por otro lado, existe un gran interés en extraer información relevante de elevadas cantidades de documentos, lo cual requiere de sistemas que analicen y ponderen los datos que caracterizan a los mismos. En el campo informático de la inteligencia artificial, dentro de la rama de la recuperación de la información, existen diversos estudios acerca de la expansión de consultas a partir de retroalimentación relevante que podrían ser de gran utilidad para dar solución a la cuestión. Estos estudios se centran en técnicas para reformular o expandir la consulta inicial utilizando como realimentación los resultados que en una primera instancia fueron relevantes para el usuario, de forma que el nuevo conjunto de resultados tenga mayor proximidad con los que el usuario realmente desea. El objetivo de este trabajo de fin de grado consiste en el estudio, implementación y experimentación de métodos que automaticen el proceso de extracción de información trascendente de documentos, utilizándola para expandir o reformular consultas. De esta forma se pretende mejorar la precisión y el ranking de los resultados asociados. Dichos métodos serán integrados en la herramienta Ontology Annotator y enfocados a la fuente de datos de PubMed [4].---ABSTRACT---Part of the current biomedical research is focused on the analysis of heterogeneous data. These data may have different origin, structure and semantics. A big quantity of interesting data is contained in public databases which gather information from different sources and make it open and free to be used by the community. In order to homogenize thise sources of public data with others which origin is private, there are some tools and techniques that allow automating the processes of integration heterogeneous data. The biomedical informatics group of the Universidad Politécnica de Madrid cooperates with the European project P-medicine which main purpose is to create an infrastructure and models to facilitate the transition from current medical practice to personalized medicine. One of the tasks of the project that the group is in charge of consists on the development of tools that will help users in the process of integrating data from diverse sources. Some of the sources are biomedical public data bases from the NCBI platform (National Center for Biotechnology Information). One of the tools in which the group is currently working on for the integration of data sources is called the Ontology Annotator. In this tool there is a phase in which the user has to retrieve information from a public data base and select the relevant data contained in it manually. For automating the process of searching and selecting data on the one hand, there is an interest in automatically generating queries that guide towards the more precise results as possible. On the other hand, there is an interest on retrieve relevant information from large quantities of documents. The solution requires systems that analyze and weigh the data allowing the localization of the relevant items. In the computer science field of the artificial intelligence, in the branch of information retrieval there are diverse studies about the query expansion from relevance feedback that could be used to solve the problem. The main purpose of this studies is to obtain a set of results that is the closer as possible to the information that the user really wants to retrieve. In order to reach this purpose different techniques are used to reformulate or expand the initial query using a feedback the results that where relevant for the user, with this method, the new set of results will have more proximity with the ones that the user really desires. The goal of this final dissertation project consists on the study, implementation and experimentation of methods that automate the process of extraction of relevant information from documents using this information to expand queries. This way, the precision and the ranking of the results associated will be improved. These methods will be integrated in the Ontology Annotator tool and will focus on the PubMed data source.
Resumo:
Each year more than 250,000 infants in the United States are exposed to artificial lighting in hospital nurseries with little consideration given to environmental lighting cycles. Essential in determining whether environmental lighting cycles need to be considered in hospital nurseries is identifying when the infant’s endogenous circadian clock becomes responsive to light. Using a non-human primate model of the developing human, we examined when the circadian clock, located in the hypothalamic suprachiasmatic nuclei (SCN), becomes responsive to light. Preterm infant baboons of different ages were exposed to light (5,000 lux) at night, and then changes in SCN metabolic activity and gene expression were assessed. After exposure to bright light at night, robust increases in SCN metabolic activity and gene expression were seen at ages that were equivalent to human infants at 24 weeks after conception. These data provide direct evidence that the biological clock of very premature primate infants is responsive to light.
Resumo:
En el contexto rural de Murcia, la recepción de la modernidad fue un fenómeno episódico y tardío. Hacia 1960 se produjo, sin embargo, un breve e ilusionante periodo cuando algunos maestros de la arquitectura española llegaron para trabajar en el desarrollo turístico de un litoral virgen y lleno de oportunidades. Entre ellos, Antoni Bonet recibió el encargo de urbanizar La Manga, una estrecha franja de tierra de 24km que separa el Mediterráneo del Mar Menor. El Plan retomaba los planteamientos urbanos de Le Corbusier para reelaborar algunas ideas preparatorias: autonomía y jerarquía de los núcleos habitados, eje vertebrador, centro cívico al borde del mar, tratamiento del frente marítimo con islas artificiales. Minimizando su impacto en el ecosistema dunar con una carretera elevada puntualmente para favorecer el aporte de arena, el Plan concentraba la edificación alrededor de torres de 16 plantas, generando unidades compactas de viviendas y equipamientos repetidas cada 2km. Inspirándose en la lectura del territorio de Le Corbusier en Buenos Aires (1929), Bonet respondía a la horizontalidad del plano del mar por contraste topológico, subrayando la presencia vertical de las torres como hitos paisajísticos que, desde la orilla opuesta, marcaban la posición de cada núcleo.