377 resultados para TDC - Sincronização de batidas
Resumo:
Noble gas analysis in early solar system materials, which can provide valuable information about early solar system processes and timescales, are very challenging because of extremely low noble gas concentrations (ppt). We therefore developed a new compact sized (33 cm length, 7.2cm diameter, 1.3 L internal volume) Time-of-Flight (TOF) noble gas mass spectrometer for high sensitivity. We call it as Edel Gas Time-of-flight (EGT) mass spectrometer. The instrument uses electron impact ionization coupled to an ion trap, which allows us to ionize and measure all noble gas isotopes. Using a reflectron set-up improves the mass resolution. In addition, the reflectron set-up also enables some extra focusing. The detection is via MCPs and the signals are processed either via ADC or TDC systems. The objective of this work is to understand the newly developed Time-Of-Flight (TOF) mass spectrometer for noble gas analysis in presolar grains of the meteorites. Chapter 1 briefly introduces the basic idea and importance of the instrument. The physics relevant to time-of-flight mass spectrometry technique is discussed in the Chapter 2 and Chapter 3 will present the oxidation technique of nanodiamonds of the presolar grains by using copper oxide. Chapter 4 will present the details about EGT data analysis software. Chapter 5 and Chapter 6 will explain the details about EGT design and operation. Finally, the performance results will be presented and discussed in the Chapter 7, and whole work is summarized in Chapter 8 and also outlook of the future work is given.
Resumo:
Este artículo estudia la identificación de los homosexuales varones como un grupo singular durante la primera década peronista, bajo la figura de los "amorales". A diferencia de principios de siglo XX, donde estaban integrados en el caótico ambiente de la mala vida. Los varones de mediados de siglo que tenían relaciones sexuales con varones comenzaron a ser destacados como una desviación peligrosa del ideal familiarista y heterosexista. Este proceso se explica a través de la masculinización de la clase obrera operada por el peronismo y la aparición contemporánea de los jóvenes como un sector social problemático y peligroso. Se estudia este desarrollo de la intolerancia comenzando en los primeros años '40 hasta llegar a las razzias antihomosexuales de 1954-1955 en las calles, bares y plazas de Buenos Aires. A diferencia de otras interpretaciones que subrayan el carácter ancilar de las batidas policiales, sostenemos que fueron más que una excusa en el combate del peronismo contra el catolicismo, pues se inscribían en tensiones más profundas del orden social, sexual y simbólico de la Argentina de posguerra.
Resumo:
Este artículo estudia la identificación de los homosexuales varones como un grupo singular durante la primera década peronista, bajo la figura de los "amorales". A diferencia de principios de siglo XX, donde estaban integrados en el caótico ambiente de la mala vida. Los varones de mediados de siglo que tenían relaciones sexuales con varones comenzaron a ser destacados como una desviación peligrosa del ideal familiarista y heterosexista. Este proceso se explica a través de la masculinización de la clase obrera operada por el peronismo y la aparición contemporánea de los jóvenes como un sector social problemático y peligroso. Se estudia este desarrollo de la intolerancia comenzando en los primeros años '40 hasta llegar a las razzias antihomosexuales de 1954-1955 en las calles, bares y plazas de Buenos Aires. A diferencia de otras interpretaciones que subrayan el carácter ancilar de las batidas policiales, sostenemos que fueron más que una excusa en el combate del peronismo contra el catolicismo, pues se inscribían en tensiones más profundas del orden social, sexual y simbólico de la Argentina de posguerra.
Resumo:
Este artículo estudia la identificación de los homosexuales varones como un grupo singular durante la primera década peronista, bajo la figura de los "amorales". A diferencia de principios de siglo XX, donde estaban integrados en el caótico ambiente de la mala vida. Los varones de mediados de siglo que tenían relaciones sexuales con varones comenzaron a ser destacados como una desviación peligrosa del ideal familiarista y heterosexista. Este proceso se explica a través de la masculinización de la clase obrera operada por el peronismo y la aparición contemporánea de los jóvenes como un sector social problemático y peligroso. Se estudia este desarrollo de la intolerancia comenzando en los primeros años '40 hasta llegar a las razzias antihomosexuales de 1954-1955 en las calles, bares y plazas de Buenos Aires. A diferencia de otras interpretaciones que subrayan el carácter ancilar de las batidas policiales, sostenemos que fueron más que una excusa en el combate del peronismo contra el catolicismo, pues se inscribían en tensiones más profundas del orden social, sexual y simbólico de la Argentina de posguerra.
Resumo:
In low and middle latitudes, the Cretaceous/Tertiary boundary is marked by a sudden and pronounced decrease in d13C values of near-surface-water carbonates and a reduction in the surface-to-bottom d13C gradient. These isotopic data have been interpreted as evidence of a decline in surface-water productivity that was responsible for the extinction of many planktic foraminiferal species and other marine organisms at or near the K/T boundary. We present planktic and benthic foraminiferal isotopic data from two almost biostratigraphically complete sections at Ocean Drilling Program Site 738 in the antarctic Indian Ocean and at Nye Kløv in Denmark. These data suggest that planktic carbonate d13C values in high latitudes may not have decreased dramatically at the K/T boundary; thus, surface-water productivity may not have been reduced as much as in low and middle latitudes. Comparison of the records of Site 738 with those of ODP Sites 690 and 750 indicates a pronounced decline in d13C values of planktic and benthic foraminifera and fine-fraction/bulk carbonate ~200 000 yr after the K/T boundary. This reflects a regional shift in the carbon isotopic composition of oceanic total dissolved carbon (TDC) and correlates with a similar change in benthic foraminiferal d13C values at mid- and low-latitude Deep Sea Drilling Project Sites 527 and 577. This oceanographic event was followed by the ecosystem's global recovery ~500 000 yr after the K/T boundary. These data suggest that the environmental effects of the K/T boundary may have been less severe in the high-latitude oceans than in tropical and subtropical regions.
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
Two key genes in terpenoid indole alkaloid biosynthesis, Tdc and Str, encoding tryptophan decarboxylase and strictosidine synthase, respectively, are coordinately induced by fungal elicitors in suspension-cultured Catharanthus roseus cells. We have studied the roles of the jasmonate biosynthetic pathway and of protein phosphorylation in signal transduction initiated by a partially purified elicitor from yeast extract. In addition to activating Tdc and Str gene expression, the elicitor also induced the biosynthesis of jasmonic acid. The jasmonate precursor α-linolenic acid or methyl jasmonate (MeJA) itself induced Tdc and Str gene expression when added exogenously . Diethyldithiocarbamic acid, an inhibitor of jasmonate biosynthesis, blocked both the elicitor-induced formation of jasmonic acid and the activation of terpenoid indole alkaloid biosynthetic genes. The protein kinase inhibitor K-252a abolished both elicitor-induced jasmonate biosynthesis and MeJA-induced Tdc and Str gene expression. Analysis of the expression of Str promoter/gusA fusions in transgenic C. roseus cells showed that the elicitor and MeJA act at the transcriptional level. These results demonstrate that the jasmonate biosynthetic pathway is an integral part of the elicitor-triggered signal transduction pathway that results in the coordinate expression of the Tdc and Str genes and that protein kinases act both upstream and downstream of jasmonates.
Resumo:
Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).
Resumo:
A eficiência da amamentação exige uma complexa coordenação entre sucção, deglutição e respiração, sendo que a tecnologia tem possibilitado importantes avanços na compreensão desse processo. Porém, não foram encontrados vídeos disponíveis na internet que demonstrassem a anatomia e fisiologia da amamentação, de modo didático e fidedigno à ciência atual. Este trabalho teve por objetivo descrever o desenvolvimento de uma sequência em computação gráfica sobre a sucção e a deglutição, resultante da produção digital do Bebê Virtual, bem como validar tal produção quanto ao conteúdo e prover adequações necessárias ao material educacional. Para a produção das iconografias em 3D da sucção e deglutição no Bebê Virtual, inicialmente foi elaborado um mapa conceitual e uma matriz de conteúdos, objetivos e competências voltadas ao material educacional. Posteriormente foi elaborado um roteiro científico que abordou a anatomia do crânio, face, cavidade oral, faringe, laringe e esôfago do recém-nascido, bem como, a descrição dos mecanismos fisiológicos relacionados à sucção e às fases oral e faríngea da deglutição no bebê. Para isso foram utilizadas 14 publicações do período de 1998 a 2008, que continham informações relevantes para demonstrar a amamentação. Os conteúdos teóricos foram organizados em cenas principais, possibilitando a criação de previews das sequências dinâmicas, as quais foram avaliadas por profissionais de anatomia, fonoaudiologia e medicina, possibilitando os ajustes necessários e a construção das imagens em computação gráfica 3D. Para análise da validade de conteúdo dessas imagens foi verificada a representatividade dos itens que o compõe, por meio de consulta à literatura. Foram incluídos estudos que utilizaram auxílio tecnológico e abordaram o tema proposto em bebês a termo e saudáveis, sem alterações neurológicas ou anomalias craniofaciais. Foram excluídas as publicações realizadas com bebês pré-termo, sindrômicos, com anomalias, doenças neurológicas ou qualquer alteração que pudesse interferir na amamentação, revisões de literatura e relatos de caso. Os artigos selecionados foram analisados e classificados quanto ao nível de evidência científica, predominando o nível três de evidência. A análise de conteúdo demonstrou a necessidade de adequações nas iconografias 3D, para que o processo de sucção e deglutição demonstrado no bebê virtual pudesse corresponder ao conhecimento científico atual. Tais adequações foram propostas a partir dos achados de 9 estudos, publicados entre 2008 e 2014, que utilizaram ultrassonografia para demonstrar como ocorre o processo de amamentação. Desta forma, foram modificados os aspectos da pega, da movimentação de língua, mandíbula, palato mole e laringe, além da sincronização da sucção/deglutição/respiração e deslocamento do mamilo, num processo desenvolvido em cinco etapas. Assim, o presente estudo descreveu o processo de desenvolvimento das iconografias em 3D sobre a anatomia e fisiologia da sucção e deglutição no recém-nascido a termo, sendo que a validade de conteúdo permitiu atualizar vários aspectos da amamentação do Bebê Virtual, quebrando velhos paradigmas e possibilitando ilustrar didaticamente as evidências científicas relacionadas.
Resumo:
A televisão nos dias atuais tem sofrido inúmeras inovações tecnológicas nos campos das transmissões multimídia, qualidade audio-visual e diversidade de funcionalidades. Entretanto, esta essencialmente mantêm sua característica de fornecer informações de forma quase que instantânea à população. O ambiente atual da televisão digital é caracterizado pela coexistência de inúmeros dispositivos capazes de oferecerem uma experiência televisa, associando-se computadores pessoais, smartphones, tablets e outros eletrônicos de consumo. Ainda, pode se incluir a este cenário a disponibilidade de inúmeras redes de transporte de dados tais como a radiodifusão, satélite, cabo e redes em banda larga. Este cenário diversificado, em termos de dispositivos e redes, é denominado de cenário de televisão digital híbrida, a qual destaca-se a interação do expectador com os diversos dispositivos. Estes cenários, por sua vez, motivam o desenvolvimento de tecnologias que permitem o aperfeiçoamento da pervasividade e dos meios pelos os quais os aplicativos possam ser suportados em diferentes plataformas. Este trabalho propõe ambientes interoperáveis envolvendo a televisão digital interativa e outros eletrônicos de consumo, aos quais foram realizados estudos e experimentos para se observar diferentes técnicas de sincronização e comunicação entre plataformas de interatividade para a televisão digital híbrida. Os resultados apontam para a possibilidade de cenários interoperáveis envolvendo o uso de marcadores e também recursos de redes e serviços TCP/IP, levando em consideração a eficiência e eficácia nos diferentes métodos. Conclui-se que os resultados odem motivar o desenvolvimento de cenários diferenciados envolvendo a televisão digital interativa e dispositivos de segunda tela, o que incrementa a interatividade e as formas de entretenimento.
Resumo:
Dissertação apresentada ao Instituto Politécnico de Castelo Branco para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Desenvolvimento de Software e Sistemas Interactivos, realizada sob a orientação científica do Doutor Osvaldo Arede dos Santos, Professor Adjunto da Unidade Técnico Científica de Informática da Escola Superior de Tecnologia do Instituto Politécnico de Castelo Branco.
Resumo:
Stable isotopic records across the Cretaceous/Paleogene (K/P) boundary in Maud Rise Holes 689B and 690C indicate that significant climatic changes occurred during the latest Cretaceous, beginning approximately 500 k.y. prior to the mass extinction event and the enrichment of iridium at the K/P boundary (66.4 Ma). An oxygen isotopic decrease of ~0.7 per mil - ~1.0 per mil is recorded in the Late Cretaceous planktonic and benthic foraminifers between 66.9 and 66.6 Ma. The negative isotope excursion was followed by a positive excursion of similar magnitude between 66.6 Ma (latest Cretaceous) and ~66.3 Ma (earliest Paleocene). No other isotopic excursions of this magnitude are recorded in the planktonic and benthic microfossil records 1.0 m.y prior to, and for 2.0 m.y following the mass extinction event at the K/P boundary. The magnitude and duration of these isotopic excursions were similar to those at the Paleocene/Eocene and Eocene/Oligocene boundaries. A major d13C excursion occurred 200 k.y. prior to the boundary, involving a positive shift in planktonic and benthic d13C of ~0.5 per mil - 0.75 per mil. Similar changes observed in other deep-sea sequences indicate that this reflected a global change in d13C of the oceanic total dissolved carbon (TDC) reservoir. The magnitude of this inferred carbon reservoir change and its association with high latitude surface-water temperature changes recorded in the d18O records implies that it was linked to global climate change through feedback loops in the carbon cycle. At the K/P boundary, the surface-to-deep water d13C gradient is reduced by approximately 0.6 per mil - ~0.2 per mil. However, unlike sequences elsewhere, the planktonic-benthic d13C gradient (Delta d13C) was not eliminated in the Antarctic. The surface-to-deep water gradient was re-established gradually during the 400 k.y. following the mass extinction. Full recovery of the Delta d13C occurred by ~60.0 Ma. In addition to the reduced vertical d13C gradient across the K/P boundary, there was a negative excursion in both planktonic and benthic d13C beginning approximately 100 k.y. after the boundary (66.3 Ma). This excursion resulted in benthic d13C values in the early Paleogene that were similar to those in the pre-K/P boundary intervals. This negative shift appears to reflect a change in the d13C of the oceanic TDC reservoir shift that may have resulted from reduced carbon burial and/or increased carbon flux to the oceans. Any model that attempts to explain the demise of the oceanic plankton at the end of the Cretaceous should consider the oceanic environmental changes that were occurring prior to the massive extinction event.
Resumo:
We report a novel tunable dispersion compensator (TDC) based on all-fiber distributed Gires-Tournois etaIons (DGTE), which is formed by overlapped chirped fiber gratings. Two DGTEs of opposite dispersion slope work together to generate a tunable periodical dispersion profile. The demonstrated TDCs have the advantages of multichannel operation, extremely low group-delay ripple, low loss, and low cost.
Resumo:
In this work, composites were prepared using high energy mechanical milling from the precursors hydroxyapatite - HAp (Ca10(PO4)6(OH)2) and metallic iron ( -Fe ). The main goal here is to study composites in order to employ them in magnetic hyperthermia for cancer therapy. The produced samples were characterized by X-ray di raction (XRD), scanning electron microscopy (SEM), energy dispersive spectroscopy (EDS), magnetization curves as a function of applied eld (MxH), and nally measurements of magnetic hyperthermia. The XRD patterns of the milled samples HAp/Fe revealed only the presence of precursor materials. The SEM showed clusters with irregular shapes. The magnetization curves indicated typical cases of weak ferromagnetic behavior. For samples submitted to grinding and annealing, the identi ed phases were: HAp (Ca10(PO4)6(OH)2), hematite (Fe2O3) and Calcium Iron Phosphate (Ca9Fe(PO4)7). Analyzing the results of MxH, there was a reduction of the saturation magnetization, given that the Fe was incorporated into HAp. Hysteresis curves obtained at 300 K are characteristics of samples possessing over a phase. At 77 K, the behavior of the hysteresis curve is in uenced by the presence of hematite, which is antiferromagnetic. Already at T = 4.2 K, it is observed a weak ferromagnetic behavior. Furthermore, there is the e ect of exchange bias. Regarding the magnetic hyperthermia, the results of temperature measurements as a function of the alternating eld are promising for applications in magnetic hyperthermia and other biomedical applications.