969 resultados para word-formation processes
Resumo:
Die Mikrophysik in Wolken bestimmt deren Strahlungseigenschaften und beeinflusst somit auch den Strahlungshaushalt des Planeten Erde. Aus diesem Grund werden im Rahmen der vorliegenden Arbeit die mikrophysikalischen Charakteristika von Cirrus-Wolken sowie von arktischen Grenzschicht-Wolken behandelt. Die Untersuchung dieser Wolken wurde mithilfe verschiedener Instrumente verwirklicht, welche Partikel in einem Durchmesserbereich von 250nm bis zu 6.4mm vermessen und an Forschungsflugzeugen montiert werden. Ein Instrumentenvergleich bestätigt, dass innerhalb der Bereiche in denen sich die Messungen dieser Instrumente überlappen, die auftretenden Diskrepanzen als sehr gering einzustufen sind. Das vorrangig verwendete Instrument trägt die Bezeichnung CCP (Cloud Combination Probe) und ist eine Kombination aus einem Instrument, das Wolkenpartikel anhand von vorwärts-gerichtetem Streulicht detektiert und einem weiteren, das zweidimensionale Schattenbilder einzelner Wolkenpartikel aufzeichnet. Die Untersuchung von Cirrus-Wolken erfolgt mittels Daten der AIRTOSS-ICE (AIRcraft TOwed Sensor Shuttle - Inhomogeneous Cirrus Experiment) Kampagne, welche im Jahr 2013 über der deutschen Nord- und Ostsee stattfand. Parameter wie Partikeldurchmesser, Partikelanzahlkonzentration, Partikelform, Eiswassergehalt, Wolkenhöhe und Wolkendicke der detektierten Cirrus-Wolken werden bestimmt und im Kontext des aktuellen Wissenstandes diskutiert. Des Weiteren wird eine beprobte Cirrus-Wolke im Detail analysiert, welche den typischen Entwicklungsprozess und die vertikale Struktur dieser Wolkengattung widerspiegelt. Arktische Grenzschicht-Wolken werden anhand von Daten untersucht, die während der VERDI (VERtical Distribution of Ice in Arctic Clouds) Kampagne im Jahr 2012 über der kanadischen Beaufortsee aufgezeichnet wurden. Diese Messkampagne fand im Frühling statt, um die Entwicklung von Eis-Wolken über Mischphasen-Wolken bis hin zu Flüssigwasser-Wolken zu beobachten. Unter bestimmten atmosphärischen Bedingungen tritt innerhalb von Mischphasen-Wolken der sogenannte Wegener-Bergeron-Findeisen Prozess auf, bei dem Flüssigwassertropfen zugunsten von Eispartikeln verdampfen. Es wird bestätigt, dass dieser Prozess anhand von mikrophysikalischen Messungen, insbesondere den daraus resultierenden Größenverteilungen, nachweisbar ist. Darüber hinaus wird eine arktische Flüssigwasser-Wolke im Detail untersucht, welche im Inneren das Auftreten von monomodalen Tröpfchen-Größenverteilungen zeigt. Mit zunehmender Höhe wachsen die Tropfen an und die Maxima der Größenverteilungen verschieben sich hin zu größeren Durchmessern. Dahingegen findet im oberen Übergangsbereich dieser Flüssigwasser-Wolke, zwischen Wolke und freier Atmosphäre, ein Wechsel von monomodalen zu bimodalen Tröpfchen-Größenverteilungen statt. Diese weisen eine Mode 1 mit einem Tropfendurchmesser von 20μm und eine Mode 2 mit einem Tropfendurchmesser von 10μm auf. Das dieses Phänomen eventuell typisch für arktische Flüssigwasser-Wolken ist, zeigen an dem Datensatz durchgeführte Analysen. Mögliche Entstehungsprozesse der zweiten Mode können durch Kondensation von Wasserdampf auf eingetragenen Aerosolpartikeln, die aus einer Luftschicht oberhalb der Wolke stammen oder durch Wirbel, welche trockene Luftmassen in die Wolke induzieren und Verdampfungsprozesse von Wolkentröpfchen hervorrufen, erklärt werden. Unter Verwendung einer direkten numerischen Simulation wird gezeigt, dass die Einmischung von trockenen Luftmassen in den Übergangsbereich der Wolke am wahrscheinlichsten die Ausbildung von Mode 2 verursacht.
Resumo:
The paper presents a comparative study of the personal and geographic names in the two complete Slavic translations of the Byzantine Versified Synaxarion, namely the Bulgarian and Serbian Prolog Stišnoj, which appeared around the first half of the 14 th century. On the basis of the March texts in seven South Slavic manuscripts, the differences in the rendering of the personal names are analysed on the level of phonetics, orthography, morphology and word formation. The data allow the following conclusions: 1) The differences in the forms of these names in the Bulgarian and Serbian Prolog Stišnoj give further arguments supporting their independent origin; 2) Several specific tendencies are noted which more or less differentiate them. The Bulgarian translation reproduces more accurately the graphics of the original names, allows dativus possessivus, often replaces the Greek anthroponyms and toponyms with adjectives, presents many local names in the plural, and sometimes retains Greek nominative endings in masculine personal names. The Serbian translation, on the other hand, follows more often the Byzantine pronunciation of the names, complies more strictly with their grammatical characteristics (case, number), separates more often the ending -ς from the stem, and incorporates the accusative ending -ν into the stem of certain anthroponyms several times. 3) The tendency towards Slavicisation of the personal names is nearly the same in both translations and cannot be viewed as peculiar of either of them.
Resumo:
It is perhaps unsurprising that the rich agglutinative-polysynthetic verb morphology of Mapudungun has drawn most attention in linguistic studies. So far unnoticed in the literature are Mapudungun complex noun phrases, which show a puzzling distribution in terms of the internal structure they display. Some complex NPs are head-final (mapu-che ‘people of the land’). Others are head-initial, and of these a subset appears to be less lexicalized. In some cases, all three possibilities are found with the same components: mamüll-che ‘wood people’, che-mamüll ‘people made of wood’, and che mamüll ‘wood-like people’. The present paper reviews the comparatively modest literature on these phenomena, deals with them in an account based on semantic factors, and places them in a broader typological context.
Resumo:
A 160 m mostly turbiditic late Pleistocene sediment sequence (IODP Expedition 308, Hole U1319A) from the Brazos-Trinity intraslope basin system off Texas was investigated with paleo- and rock magnetic methods. Numerous layers depleted in iron oxides and enriched by the ferrimagnetic iron-sulfide mineral greigite (Fe3S4) were detected by diagnostic magnetic properties. From the distribution of these layers, their stratigraphic context and the present geochemical zonation, we develop two conceptual reaction models of greigite formation in non-steady depositional environments. The "sulfidization model" predicts single or twin greigite layers by incomplete transformation of iron monosulfides with polysulfides around the sulfate methane transition (SMT). The "oxidation model" explains greigite formation by partial oxidation of iron monosulfides near the iron redox boundary during periods of downward shifting oxidation fronts. The stratigraphic record provides evidence that both these greigite formation processes act here at typical depths of about 12-14 mbsf and 3-4 mbsf. Numerous "fossil" greigite layers most likely preserved by rapid upward shifts of the redox zonation denote past SMT and sea floor positions characterized by stagnant hemipelagic sedimentation conditions. Six diagenetic stages from a pristine magnetite-dominated to a fully greigite-dominated magnetic mineralogy were differentiated by combination of various hysteresis and remanence parameters.
Resumo:
Precipitation has a larger variability than temperature in tropical monsoon regions, thus it is an important climate variable. However, reconstructions of long-term rainfall histories are scarce because of the lack of reliable proxies. Here we document that iron oxide minerals, specifically the ratio of hematite to goethite (Hm/Gt), is a reasonable precipitation proxy. Using diffuse reflectance spectrophotometry, we measured samples from Ocean Drilling Program (ODP) 1143 drilling site (9°21.72'N, 113°17.11'E, 2777 m water depth) for hematite and goethite, whose formation processes are favored by opposing climate conditions. In order to determine the content of hematite and goethite we produced a set of calibration samples by removing the iron oxides to generate the natural matrix to which hematite and goethite in known percentages were added. From these calibration samples we developed a transfer function for determining hematite and goethite concentration from a sample's spectral reflectance. Applying this method to ODP 1143 sediments (top 34 m of a 510 m core with sampling interval of 10 cm) we were able to reconstruct a continuous precipitation history for SE Asia of the past 600 kyr using the Hm/Gt ratio as a proxy of the precipitation variability of Asian monsoon. The reliability of this Hm/Gt proxy is corroborated by its consistency with the stalagmite delta18O data from South China. Comparing long-term Hm/Gt records with the surface temperature gradient of equatorial Pacific Ocean, we found that monsoon precipitation and El Niño are correlated for the last 600 kyr. The development of El Niño-like conditions decreased SE Asia precipitation, whereas precipitation increases in response to La Niña intensification
Resumo:
We present evidence that both geophysical and thermodynamic conditions in sea ice are important in understanding pathways of accumulation or rejection of hexachlorocyclohexanes (HCHs). a- and g-HCH concentrations and a-HCH enantiomer fractions have been measured in various ice classes and ages from the Canadian High Arctic. Mean a-HCH concentrations reached 0.642 ± 0.046 ng/L in new and young ice (<30 cm), 0.261 ±0.015 ng/L in the first-year ice (30-200 cm) and 0.208 ±0.045 in the old ice (>200 cm). Mean g-HCH concentrations were 0.066 ± 0.006 ng/L in new and young ice, 0.040 ±0.002 ng/L in the first-year ice and 0.040 ±0.007 ng/L in the old ice. In general, a-HCH concentrations and vertical distributions were highly dependent on the initial entrapment of brine and the subsequent desalination process. g-HCH levels and distribution in sea ice were not as clearly related to ice formation processes. During the year, first-year ice progressed from freezing (accumulation) to melting (ablation). Relations between the geophysical state of the sea ice and the vertical distribution of HCHs are described as ice passes through these thermodynamic states. In melting ice, which corresponded to the algal bloom period, the influence of biological processes within the bottom part of the ice on HCH concentrations and a-HCH enantiomer fraction is discussed using both univariate and multivariate approaches.
Resumo:
Vicinal Ge(100) is the common substrate for state of the art multi-junction solar cells grown by metal-organic vapor phase epitaxy (MOVPE). While triple junction solar cells based on Ge(100) present efficiencies mayor que 40%, little is known about the microscopic III-V/Ge(100) nucleation and its interface formation. A suitable Ge(100) surface preparation prior to heteroepitaxy is crucial to achieve low defect densities in the III-V epilayers. Formation of single domain surfaces with double layer steps is required to avoid anti-phase domains in the III-V films. The step formation processes in MOVPE environment strongly depends on the major process parameters such as substrate temperature, H2 partial pressure, group V precursors [1], and reactor conditions. Detailed investigation of these processes on the Ge(100) surface by ultrahigh vacuum (UHV) based standard surface science tools are complicated due to the presence of H2 process gas. However, in situ surface characterization by reflection anisotropy spectroscopy (RAS) allowed us to study the MOVPE preparation of Ge(100) surfaces directly in dependence on the relevant process parameters [2, 3, 4]. A contamination free MOVPE to UHV transfer system [5] enabled correlation of the RA spectra to results from UHV-based surface science tools. In this paper, we established the characteristic RA spectra of vicinal Ge(100) surfaces terminated with monohydrides, arsenic and phosphorous. RAS enabled in situ control of oxide removal, H2 interaction and domain formation during MOVPE preparation.
Resumo:
La globalización, en las últimas décadas, ha tenido una amplia repercusión e influencia sobre la evolución de los procesos que intervienen en la gestión y la ordenación urbano-territorial. Esta influencia ha sido especialmente destacable en los procesos de conformación de las Ciudades Globales (CG). No obstante, dentro de los procesos actuales, y de los ya iniciados décadas atrás, se encuentran discordancias tanto con respecto a los modelos de gestión urbanoterritoriales como con relación a los procesos de conformación de las CG. Esto es debido a que cada territorio o CG no ha seguido un proceso homogéneo; sino que, a través del modelo empresarial de la “Planificación Estratégica” (PE) cada proceso ha sido adaptado para poder atender y potenciar las características más singulares de cada territorio, y de esta forma, poder alcanzar las ambiciosas posiciones de liderazgo. Por este motivo, el éxito de la PE se ha basado en simplificar la complejidad de los modelos y agentes que participan en los procesos de conformación de los territorios y ciudades globales. En esta investigación se propone analizar el valor de la PE como proceso de gestión y ordenación urbano-territorial; al igual que se pretende esclarecer tanto los modelos como los elementos de los que se compone. Para, poder así, identificar las relaciones que se producen entre los modelos y elementos principales de los que se compone una PE. Por motivos relacionados con la necesaria acotación de toda investigación, y mediante el apoyo de tanto el tutor de esta investigación como de expertos externos consultados, se ha acordado analizar los aspectos más característicos del proceso estratégico, como son: los territoriales, los económicos y los de gobernanza. Esta investigación se ha llevado a cabo a través del uso del método estudio de casos, mediante un proceso de recogida de información compuesto por dos estudios de campo, Singapur y Dubái, con similitudes tanto en el proceso como en los resultados. También se han realizado consultas a expertos multidisciplinares, cuya información y aportaciones se han articulado y procesado mediante la utilización del sistema de análisis de realidades complejas, presentado en el marco conceptual. Los resultados del estudio de los casos de Singapur y de Dubái muestran como las acciones urbano-territoriales que se han llevado a cabo en ambas ciudades y en sus territorios circundantes son consecuencia del uso de la planificación estratégica en beneficio de un mejor posicionamiento dentro del contexto global. De esta forma, mediante el análisis de las asimetrías y de las relaciones existentes entre el proceso, los casos de estudio y el contexto global, se identifica y se esclarece los términos relacionados con las ciudades globales referentes, consolidadas y emergentes. A su vez, a lo largo del marco conceptual se correlaciona y esclarece los procesos territoriales, económicos y de gobernanza, identificando las responsabilidades entre las instituciones, los organismos, los agentes y los actores (tanto públicos como privados) que inician y gestionan tanto el plan estratégico como los procesos derivados de él. Para finalizar, el análisis cruzado de los resultados demuestra la relación existente entre la planificación estratégica, la ordenación urbano-territorial, la gestión económica y la gobernanza. Pudiéndose identifican las asimetrías producidas durante la implantación de un plan estratégico, de forma que, tras un análisis del sistema de realidades complejas, estas asimetrías puedan ser solventadas. RESUMO Nas últimas décadas, a globalização tem tido um grande impacto sobre a evolução dos processos de gestão e planejamento urbano-territorial. Essa influência foi particularmente notável nos processos de formação das cidades globais (CG). No entanto, comparando os processos atuais e aqueles iniciados há décadas, as discrepâncias são encontradas tanto no que diz respeito aos modelos de uso do solo urbano, como em relação aos processos de formação e gestão das CG. Isso ocorre porque cada território ou CG não tem seguido um processo uniforme; mas, por meio do modelo de negócios de "Planejamento Estratégico" (PE) cada processo foi adaptado para servir e melhorar as características mais singulares de cada território para alcançar posições de liderança global. Portanto, o sucesso do PE é baseado na simplificação da complexidade dos modelos e atores envolvidos nos processos de formação dos territórios e das cidades globais. Esta pesquisa tem como objetivo analisar o valor do PE como um processo de gestão territorial e urbana; como também esclarecer os modelos e elementos do PE estudados. Para, então, poder identificar as relações que ocorrem entre os modelos e os principais elementos integrantes de um PE. Como recorte de pesquisa, após consultas com o tutor da pesquisa e com outros pesquisadores especialistas, decidiu-se analisar os aspectos mais característicos do processo estratégico, sendo eles: os territoriais, os econômicos e os de governabilidade. Esta pesquisa ’e um estudo de casos. Para realizá-lo, foram escolhidos dois estudos de campo (Dubai e Cingapura) e além de consultas com especialistas multidisciplinares, cujas informações e colaborações foram analisadas por um sistema de analise de realidades complexas, explicado na parte conceitual dessa tese. Os resultados do estudo dos casos de Dubai e Cingapura mostra como as ações urbanoterritoriais que foram realizadas em ambas cidades e em seus territórios circundantes são resultado do uso do planejamento estratégico em prol de uma melhor localização no contexto global. Assim, através da análise das assimetrias e da relação entre o processo, os estudos de caso e o contexto global, identifica-se e esclarece os termos relacionados com as cidades globais referentes, consolidadas e emergentes. Também, no arcabouço conceitual correlacionase e esclarecem-se os processos econômicos, territoriais e de governabilidade, identificando as responsabilidades das instituições, agências, agentes e atores (públicos e privados), que iniciam e gerenciam tanto o plano estratégico, como os processos derivados. A análise cruzada dos resultados demonstra a relação entre o planejamento estratégico, o planejamento urbano-territorial, a gestão econômica e a governabilidade. A pesquisa é capaz de identificar as assimetrias produzidas durante a implementação de um plano estratégico, para que depois da análise do sistema de realidades complexas, essas assimetrias possam ser resolvidas. ABSTRACT Globalization, in recent decades, has had a wide impact and influence on the evolution of the processes involved in the urban planning management. This influence has been particularly notable in the formation processes for the Global Cities (GC). However, within the current processes, even in those started decades ago, discrepancies are found between the urbanterritorial models and their relation to the processes of formation for the CG. This is because each territory, or CG, has not followed a uniform process; although, each process has been adapted through the business model of the "Strategic Planning" (SP) to serve and enhance the most unique characteristics of each urban territory, until reaching the ambitious global leadership positions. Therefore, the success of SP is based on simplifying the complexity of the models and actors involved in the processes of formation of the GCs and territories. This research aims to analyze the value of SP as a process for the urban and territorial management; intended to clarify both models and elements of which it is composed. And, for so, identify the relationships that occur between them. For reasons related to the required limits of all research, and through the support of this research by both the tutor and the consulted outside experts, has agreed to analyze the most characteristic aspects of the strategic process, which are: territory, economy and governance. This research was conducted through the use of the case study methodology; by a process of information collection of two field studies, Singapore and Dubai, with similarities in both the process and the results; and through consultation with a variety of multidisciplinary experts. Whose information and input has been articulated and processed by the use of a system prepared for the complex analysis of realities presented in the research’s conceptual framework. Thus, analyzing the asymmetries and relationship between the results of the study cases of Singapore and Dubai, have shown how the urban-territorial actions, which have been carried out in both cities and in their surrounding territories, are the result of the use of the strategic planning process for the benefit of a better position with respect to the global context. Meanwhile, along the conceptual framework correlates and clarifies the territorial, economic and governance processes, identifying responsibilities between the institutions, agencies, agents and actors (public and private) that initiate and manage both strategic planning and processes derived from it. Finally, the cross-analysis of the results shows the relationship between strategic planning, urban and territorial planning, economic management and governance. Being able to identify and eliminate the asymmetries produced during the implementation of a strategic planning for the formation of a Global City.
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
Considerando as inúmeras fragilidades em relação à minha própria formação de professora de Química, considerando também as disposições legais e as orientações curriculares das políticas educacionais atuais que incorporam aportes teóricos fundamentais para que a aprendizagem se concretize e considerando ainda que as transformações nos procedimentos pedagógicos não acompanham o desenvolvimento das ciências da educação, este estudo teve com foco de investigação os seguintes problemas: a) os professores de Química que atuam no Ensino Médio estão devidamente formados para enfrentar as exigências colocadas pelos Parâmetros Curriculares Nacional para o Ensino Médio (PCNEM) e a realidade vivida na escola pública? b) O que o professor faz para que o aluno aprenda Química? c) A política de formação do professor de Química dá conta de formar o químico educador? Para obter os dados para responder a estas questões, recorri a uma pesquisa qualitativa de cunho etnográfico, aplicando questionários a um grupo de 12 professores de Química que atuam no Ensino Médio da rede pública estadual da Grande São Paulo. As questões do questionário foram agrupadas em três categorias: aprendizagem de conceitos, aprendizagem de procedimentos e aprendizagem de valores. No anos de 2001, essas categorias foram utilizadas por García Barros e Martinez Losada em pesquisa com professores da educação básica na Espanha, com ênfase nas duas primeiras, para averiguar que tipo de atividades se realiza habitualmente no ensino de Química e para conhecer a importância que os professores respondentes atribuem aos procedimentos que utilizam no processo de ensino. Os dados coletados, analisados à luz de contribuições dos estudiosos que compõem o corpo teórico deste estudo e das propostas contidas nos PCNEM, evidenciam que o saber fazer do professor, como o definem Carvalho e Perez (2002), é fruto de uma formação inicial precária e da quase inexistência de processos de formação continuada na escola.(AU)
Resumo:
Considerando as inúmeras fragilidades em relação à minha própria formação de professora de Química, considerando também as disposições legais e as orientações curriculares das políticas educacionais atuais que incorporam aportes teóricos fundamentais para que a aprendizagem se concretize e considerando ainda que as transformações nos procedimentos pedagógicos não acompanham o desenvolvimento das ciências da educação, este estudo teve com foco de investigação os seguintes problemas: a) os professores de Química que atuam no Ensino Médio estão devidamente formados para enfrentar as exigências colocadas pelos Parâmetros Curriculares Nacional para o Ensino Médio (PCNEM) e a realidade vivida na escola pública? b) O que o professor faz para que o aluno aprenda Química? c) A política de formação do professor de Química dá conta de formar o químico educador? Para obter os dados para responder a estas questões, recorri a uma pesquisa qualitativa de cunho etnográfico, aplicando questionários a um grupo de 12 professores de Química que atuam no Ensino Médio da rede pública estadual da Grande São Paulo. As questões do questionário foram agrupadas em três categorias: aprendizagem de conceitos, aprendizagem de procedimentos e aprendizagem de valores. No anos de 2001, essas categorias foram utilizadas por García Barros e Martinez Losada em pesquisa com professores da educação básica na Espanha, com ênfase nas duas primeiras, para averiguar que tipo de atividades se realiza habitualmente no ensino de Química e para conhecer a importância que os professores respondentes atribuem aos procedimentos que utilizam no processo de ensino. Os dados coletados, analisados à luz de contribuições dos estudiosos que compõem o corpo teórico deste estudo e das propostas contidas nos PCNEM, evidenciam que o saber fazer do professor, como o definem Carvalho e Perez (2002), é fruto de uma formação inicial precária e da quase inexistência de processos de formação continuada na escola.(AU)
Resumo:
Context. During the course of a large spectroscopic survey of X-ray active late-type stars in the solar neighbourhood, we discovered four lithium-rich stars packed within just a few degrees on the sky. Although located in a sky area rich in CO molecular regions and dark clouds, the Cepheus-Cassiopeia complex, these very young stars are projected several degrees away from clouds in front of an area void of interstellar matter. As such, they are very good "isolated" T Tauri star candidates. Aims. We present optical observations of these stars conducted with 1-2 m class telescopes. We acquired high-resolution optical spectra as well as photometric data allowing us to investigate in detail their nature and physical parameters with the aim of testing the "runaway" and "in-situ" formation scenarios. Their kinematical properties are also analyzed to investigate their possible connection to already known stellar kinematic groups. Methods. We use the cross-correlation technique and other tools developed by us to derive accurate radial and rotational velocities and perform an automatic spectral classification. The spectral subtraction technique is used to infer chromospheric activity level in the Hα line core and clean the spectra of photospheric lines before measuring the equivalent width of the lithium absorption line. Results. Both physical (lithium content, chromospheric, and coronal activities) and kinematical indicators show that all stars are very young, with ages probably in the range 10-30 Myr. In particular, the spectral energy distribution of TYC4496-780-1 displays a strong near-and far-infrared excess, typical of T Tauri stars still surrounded by an accretion disc. They also share the same Galactic motion, proving that they form a homogeneous moving group of stars with the same origin. Conclusions. The most plausible explanation of how these "isolated" T Tauri stars formed is the "in-situ" model, although accurate distances are needed to clarify their connection with the Cepheus-Cassiopeia complex. The discovery of this loose association of "isolated" T Tauri stars can help to shed light on atypical formation processes of stars and planets in low-mass clouds.
Resumo:
Um dos aspectos regulatórios fundamentais para o mercado imobiliário no Brasil são os limites para obtenção de financiamento no Sistema Financeiro de Habitação. Esses limites podem ser definidos de forma a aumentar ou reduzir a oferta de crédito neste mercado, alterando o comportamento dos seus agentes e, com isso, o preço de mercado dos imóveis. Neste trabalho, propomos um modelo de formação de preços no mercado imobiliário brasileiro com base no comportamento dos agentes que o compõem. Os agentes vendedores têm comportamento heterogêneo e são influenciados pela demanda histórica, enquanto que os agentes compradores têm o seu comportamento determinado pela disponibilidade de crédito. Esta disponibilidade de crédito, por sua vez, é definida pelos limites para concessão de financiamento no Sistema Financeiro de Habitação. Verificamos que o processo markoviano que descreve preço de mercado converge para um sistema dinâmico determinístico quando o número de agentes aumenta, e analisamos o comportamento deste sistema dinâmico. Mostramos qual é a família de variáveis aleatórias que representa o comportamento dos agentes vendedores de forma que o sistema apresente um preço de equilíbrio não trivial, condizente com a realidade. Verificamos ainda que o preço de equilíbrio depende não só das regras de concessão de financiamento no Sistema Financeiro de Habitação, como também do preço de reserva dos compradores e da memória e da sensibilidade dos vendedores a alterações na demanda. A memória e a sensibilidade dos vendedores podem levar a oscilações de preços acima ou abaixo do preço de equilíbrio (típicas de processos de formação de bolhas); ou até mesmo a uma bifurcação de Neimark-Sacker, quando o sistema apresenta dinâmica oscilatória estável.