999 resultados para luminosity


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis consists of three separate studies of roles that black holes might play in our universe.

In the first part we formulate a statistical method for inferring the cosmological parameters of our universe from LIGO/VIRGO measurements of the gravitational waves produced by coalescing black-hole/neutron-star binaries. This method is based on the cosmological distance-redshift relation, with "luminosity distances" determined directly, and redshifts indirectly, from the gravitational waveforms. Using the current estimates of binary coalescence rates and projected "advanced" LIGO noise spectra, we conclude that by our method the Hubble constant should be measurable to within an error of a few percent. The errors for the mean density of the universe and the cosmological constant will depend strongly on the size of the universe, varying from about 10% for a "small" universe up to and beyond 100% for a "large" universe. We further study the effects of random gravitational lensing and find that it may strongly impair the determination of the cosmological constant.

In the second part of this thesis we disprove a conjecture that black holes cannot form in an early, inflationary era of our universe, because of a quantum-field-theory induced instability of the black-hole horizon. This instability was supposed to arise from the difference in temperatures of any black-hole horizon and the inflationary cosmological horizon; it was thought that this temperature difference would make every quantum state that is regular at the cosmological horizon be singular at the black-hole horizon. We disprove this conjecture by explicitly constructing a quantum vacuum state that is everywhere regular for a massless scalar field. We further show that this quantum state has all the nice thermal properties that one has come to expect of "good" vacuum states, both at the black-hole horizon and at the cosmological horizon.

In the third part of the thesis we study the evolution and implications of a hypothetical primordial black hole that might have found its way into the center of the Sun or any other solar-type star. As a foundation for our analysis, we generalize the mixing-length theory of convection to an optically thick, spherically symmetric accretion flow (and find in passing that the radial stretching of the inflowing fluid elements leads to a modification of the standard Schwarzschild criterion for convection). When the accretion is that of solar matter onto the primordial hole, the rotation of the Sun causes centrifugal hangup of the inflow near the hole, resulting in an "accretion torus" which produces an enhanced outflow of heat. We find, however, that the turbulent viscosity, which accompanies the convective transport of this heat, extracts angular momentum from the inflowing gas, thereby buffering the torus into a lower luminosity than one might have expected. As a result, the solar surface will not be influenced noticeably by the torus's luminosity until at most three days before the Sun is finally devoured by the black hole. As a simple consequence, accretion onto a black hole inside the Sun cannot be an answer to the solar neutrino puzzle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, we test the electroweak sector of the Standard Model of particle physics through the measurements of the cross section of the simultaneous production of the neutral weak boson Z and photon γ, and the limits on the anomalous Zγγ and ZZγ triple gauge couplings h3 and h4 with the Z decaying to leptons (electrons and muons). We analyze events collected in proton-proton collisions at center of mass energy of sqrt(s) = 7 TeV corresponding to an integrated luminosity of 5.0 inverse femtobarn. The analyzed events were recorded by the Compact Muon Solenoid detector at the Large Hadron Collider in 2011.

The production cross section has been measured for hard photons with transverse momentum greater than 15 GeV that are separated from the the final state leptons in the eta-phi plane by Delta R greater than 0.7, whose sum of the transverse energy of hadrons over the transverse energy of the photon in a cone around the photon with Delta R less than 0.3 is less than 0.5, and with the invariant mass of the dilepton system greater than 50 GeV. The measured cross section value is 5.33 +/- 0.08 (stat.) +/- 0.25 (syst.) +/- 0.12 (lumi.) picobarn. This is compatible with the Standard Model prediction that includes next-to-leading-order QCD contributions: 5.45 +/- 0.27 picobarn.

The measured 95 % confidence-level upper limits on the absolute values of the anomalous couplings h3 and h4 are 0.01 and 8.8E-5 for the Zγγ interactions, and, 8.6E-3 and 8.0E-5 for the ZZγ interactions. These values are also compatible with the Standard Model where they vanish in the tree-level approximation. They extend the sensitivity of the 2012 results from the ATLAS collaboration based on 1.02 inverse femtobarn of data by a factor of 2.4 to 3.1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A search for dielectron decays of heavy neutral resonances has been performed using proton-proton collision data collected at √s = 7 TeV by the Compact Muon Solenoid (CMS) experiment at the Large Hadron Collider (LHC) in 2011. The data sample corresponds to an integrated luminosity of 5 fb−1. The dielectron mass distribution is consistent with Standard Model (SM) predictions. An upper limit on the ratio of the cross section times branching fraction of new bosons, normalized to the cross section times branching fraction of the Z boson, is set at the 95 % confidence level. This result is translated into limits on the mass of new neutral particles at the level of 2120 GeV for the Z′ in the Sequential Standard Model, 1810 GeV for the superstring-inspired Z′ψ resonance, and 1940 (1640) GeV for Kaluza-Klein gravitons with the coupling parameter k/MPl of 0.10 (0.05).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The AM CVn systems are a rare class of ultra-compact astrophysical binaries. With orbital periods of under an hour and as short as five minutes, they are among the closest known binary star systems and their evolution has direct relevance to the type Ia supernova rate and the white dwarf binary population. However, their faint and rare nature has made population studies of these systems difficult and several studies have found conflicting results.

I undertook a survey for AM CVn systems using the Palomar Transient Factory (PTF) astrophysical synoptic survey by exploiting the "outbursts" these systems undergo. Such events result in an increase in luminosity by a factor of up to two-hundred and are detectable in time-domain photometric data of AM CVn systems. My search resulted in the discovery of eight new systems, over 20% of the current known population. More importantly, this search was done in a systematic fashion, which allows for a population study properly accounting for biases.

Apart from the discovery of new systems, I used the time-domain data from the PTF and other synoptic surveys to better understand the long-term behavior of these systems. This analysis of the photometric behavior of the majority of known AM CVn systems has shown changes in their behavior at longer time scales than have previously been observed. This has allowed me to find relationships between the outburst properties of an individual system and its orbital period.

Even more importantly, the systematically selected sample together with these properties have allowed me to conduct a population study of the AM CVn systems. I have shown that the latest published estimates of the AM CVn system population, a factor of fifty below theoretical estimates, are consistent with the sample of systems presented here. This is particularly noteworthy since my population study is most sensitive to a different orbital period regime than earlier surveys. This confirmation of the population density will allow the AM CVn systems population to be used in the study of other areas of astrophysics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A common explanation for African current underdevelopment is the extractive character of institutions established during the colonial period. Yet, since colonial extraction is hard to quantify and its exact mechanisms are not well understood, we still do not know precisely how colonial institutions affect economic growth today. In this project, I study this issue by focusing on the peculiar structure of trade and labor policies employed by the French colonizers.

First, I analyze how trade monopsonies and coercive labor institutions reduced African gains from trade during the colonial period. By using new data on prices to agricultural producers and labor institutions in French Africa, I show that (1) the monopsonistic character of colonial trade implied a reduction in prices to producers far below world market prices; (2) coercive labor institutions allowed the colonizers to reduce prices even further; (3) as a consequence, colonial extraction cut African gains from trade by over 60%.

Given the importance of labor institutions, I then focus on their origin by analyzing the colonial governments' incentives to choose between coerced and free labor. I argue that the choice of institutions was affected more by the properties of exported commodities, such as prices and economies of scale, than by the characteristics of colonies, such indigenous population density and ease of settlement for the colonizers.

Finally, I study the long-term effects of colonial trade monopsonies and coercive labor institutions. By combining archival data on prices in the French colonies with maps of crop suitability, I show that the extent to which prices to agricultural producers were reduced with respect to world market prices is strongly negatively correlated with current regional development, as proxied by luminosity data from satellite images. The evidence suggests that colonial extraction affected subsequent growth by reducing development in rural areas in favor of a urban elite. The differential impact in rural and urban areas can be the reason why trade monopsonies and extractive institutions persisted long after independence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The epoch of reionization remains one of the last uncharted eras of cosmic history, yet this time is of crucial importance, encompassing the formation of both the first galaxies and the first metals in the universe. In this thesis, I present four related projects that both characterize the abundance and properties of these first galaxies and uses follow-up observations of these galaxies to achieve one of the first observations of the neutral fraction of the intergalactic medium during the heart of the reionization era.

First, we present the results of a spectroscopic survey using the Keck telescopes targeting 6.3 < z < 8.8 star-forming galaxies. We secured observations of 19 candidates, initially selected by applying the Lyman break technique to infrared imaging data from the Wide Field Camera 3 (WFC3) onboard the Hubble Space Telescope (HST). This survey builds upon earlier work from Stark et al. (2010, 2011), which showed that star-forming galaxies at 3 < z < 6, when the universe was highly ionized, displayed a significant increase in strong Lyman alpha emission with redshift. Our work uses the LRIS and NIRSPEC instruments to search for Lyman alpha emission in candidates at a greater redshift in the observed near-infrared, in order to discern if this evolution continues, or is quenched by an increase in the neutral fraction of the intergalactic medium. Our spectroscopic observations typically reach a 5-sigma limiting sensitivity of < 50 AA. Despite expecting to detect Lyman alpha at 5-sigma in 7-8 galaxies based on our Monte Carlo simulations, we only achieve secure detections in two of 19 sources. Combining these results with a similar sample of 7 galaxies from Fontana et al. (2010), we determine that these few detections would only occur in < 1% of simulations if the intrinsic distribution was the same as that at z ~ 6. We consider other explanations for this decline, but find the most convincing explanation to be an increase in the neutral fraction of the intergalactic medium. Using theoretical models, we infer a neutral fraction of X_HI ~ 0.44 at z = 7.

Second, we characterize the abundance of star-forming galaxies at z > 6.5 again using WFC3 onboard the HST. This project conducted a detailed search for candidates both in the Hubble Ultra Deep Field as well as a number of additional wider Hubble Space Telescope surveys to construct luminosity functions at both z ~ 7 and 8, reaching 0.65 and 0.25 mag fainter than any previous surveys, respectively. With this increased depth, we achieve some of the most robust constraints on the Schechter function faint end slopes at these redshifts, finding very steep values of alpha_{z~7} = -1.87 +/- 0.18 and alpha_{z~8} = -1.94 +/- 0.23. We discuss these results in the context of cosmic reionization, and show that given reasonable assumptions about the ionizing spectra and escape fraction of ionizing photons, only half the photons needed to maintain reionization are provided by currently observable galaxies at z ~ 7-8. We show that an extension of the luminosity function down to M_{UV} = -13.0, coupled with a low level of star-formation out to higher redshift, can fit all available constraints on the ionization history of the universe.

Third, we investigate the strength of nebular emission in 3 < z < 5 star-forming galaxies. We begin by using the Infrared Array Camera (IRAC) onboard the Spitzer Space Telescope to investigate the strength of H alpha emission in a sample of 3.8 < z < 5.0 spectroscopically confirmed galaxies. We then conduct near-infrared observations of star-forming galaxies at 3 < z < 3.8 to investigate the strength of the [OIII] 4959/5007 and H beta emission lines from the ground using MOSFIRE. In both cases, we uncover near-ubiquitous strong nebular emission, and find excellent agreement between the fluxes derived using the separate methods. For a subset of 9 objects in our MOSFIRE sample that have secure Spitzer IRAC detections, we compare the emission line flux derived from the excess in the K_s band photometry to that derived from direct spectroscopy and find 7 to agree within a factor of 1.6, with only one catastrophic outlier. Finally, for a different subset for which we also have DEIMOS rest-UV spectroscopy, we compare the relative velocities of Lyman alpha and the rest-optical nebular lines which should trace the cites of star-formation. We find a median velocity offset of only v_{Ly alpha} = 149 km/s, significantly less than the 400 km/s observed for star-forming galaxies with weaker Lyman alpha emission at z = 2-3 (Steidel et al. 2010), and show that this decrease can be explained by a decrease in the neutral hydrogen column density covering the galaxy. We discuss how this will imply a lower neutral fraction for a given observed extinction of Lyman alpha when its visibility is used to probe the ionization state of the intergalactic medium.

Finally, we utilize the recent CANDELS wide-field, infra-red photometry over the GOODS-N and S fields to re-analyze the use of Lyman alpha emission to evaluate the neutrality of the intergalactic medium. With this new data, we derive accurate ultraviolet spectral slopes for a sample of 468 3 < z < 6 star-forming galaxies, already observed in the rest-UV with the Keck spectroscopic survey (Stark et al. 2010). We use a Bayesian fitting method which accurately accounts for contamination and obscuration by skylines to derive a relationship between the UV-slope of a galaxy and its intrinsic Lyman alpha equivalent width probability distribution. We then apply this data to spectroscopic surveys during the reionization era, including our own, to accurately interpret the drop in observed Lyman alpha emission. From our most recent such MOSFIRE survey, we also present evidence for the most distant galaxy confirmed through emission line spectroscopy at z = 7.62, as well as a first detection of the CIII]1907/1909 doublet at z > 7.

We conclude the thesis by exploring future prospects and summarizing the results of Robertson et al. (2013). This work synthesizes many of the measurements in this thesis, along with external constraints, to create a model of reionization that fits nearly all available constraints.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis describes a measurement of B0- B0 mixing in events produced by electron-positron annihilation at a center of mass energy of 29 GeV. The data were taken by the Mark II detector in the PEP storage ring at the Stanford Linear Accelerator Center between 1981 and 1987, and correspond to a total integrated luminosity of 224pb-1.

We used a new method, based on the kinematics of hadronic events containing two leptons, to provide a measurement of the probability, x, that a hadron, initially containing a b (b) quark decays to a positive (negative) lepton to be X = 0.17+0.15-0.08, with 90% confidence level upper and lower limits of 0.38 and 0.06, respectively, including all estimated systematic errors. Because of the good separation of signal and background, this result is relatively insensitive to various systematic effects which have complicated previous measurements.

We interpret this result as evidence for the mixing of neutral B mesons. Based on existing B0d mixing rate measurements, and some assumptions about the fractions of B0d and B0s mesons present in the data, this result favors maximal mixing of B0s mesons, although it cannot rule out zero B0s mixing at the 90% confidence level.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O comportamento espacial dos indivíduos é um componente chave para se entender a dinâmica de população dos organismos e esclarecer o potencial de migração e dispersão das espécies. Vários fatores afetam a atividade de locomoção de moluscos terrestres, como temperatura, luz, umidade, época do ano, tamanho da concha, sexo, estratégia reprodutiva, idade, densidade de coespecíficos e disponibilidade de alimento. Um dos métodos usados para estudar deslocamento de gastrópodes terrestres é o de marcação-recaptura. Gastrópodes terrestres se prestam a este tipo de estudo por causa de (1) seu reduzido tamanho, (2) fácil manejo, (3) fácil captura e (4) pequenas distâncias de deslocamento e, consequentemente, reduzidas áreas de vida. Estes organismos servem como modelo para o estudo de ecologia espacial e dispersão. Estudos de população, investigando o uso do espaço, a distribuição espacial, a densidade populacional e a área de vida são escassos para moluscos terrestres e ainda mais raros em áreas naturais tropicais. Nosso objeto de estudo é Hypselartemon contusulus (Férussac, 1827), um molusco terrestre carnívoro, da família Streptaxidae, muito abundante na serrapilheira, em trechos planos de mata secundária na Trilha da Parnaioca, Ilha Grande, Rio de Janeiro. A espécie é endêmica para o estado do Rio de Janeiro. Seu tamanho é de até 7,2 mm de altura, apresentando 6 a 7 voltas. Neste trabalho estudamos as variáveis temperatura ambiente, temperatura do solo, umidade do ar, luminosidade, profundidade do folhiço, tamanho do animal, densidade de co-específicos e densidade de presas, relacionando estes dados ecológicos ao deslocamento observado em Hypselartemon contusulus. Uma das hipóteses de trabalho é que estas variáveis afetam seu deslocamento. O trabalho foi realizado na Ilha Grande, situada ao sul do Estado do Rio de Janeiro, no município de Angra dos Reis. Os animais foram capturados e marcados com um código individual pintado na concha com corretor ortográfico líquido e caneta nanquim. As distâncias de deslocamento, em cm, foram registradas medindo-se as distâncias entre marcadores subsequentes. Os resultados encontrados indicam que o método utilizado é eficaz para marcar individualmente Hypselartemon contusulus em estudos de médio prazo (até nove meses). Sugerimos o uso deste método de marcação para estudos com gastrópodes terrestres ameaçados de extinção, como algumas espécies das famílias Bulimulidae, Megalobulimidae, Streptaxidae e Strophocheilidae. Hypselartemon contusulus não mantém uma distância mínima de seus vizinhos, é ativo ao longo de todo o ano e ao longo do dia, demonstrando atividade de locomoção e predação. Não foram encontrados animais abrigados sob pedra ou madeira morta. Não foram observados locais de atividade em oposição a lugares de repouso/abrigo. Beckianum beckianum (Pfeiffer, 1846) foi a presa preferencial. A densidade populacional variou de 0,57 a 1,2 indivíduos/m2 entre as campanhas de coleta. A espécie desloca-se, em média, 26,57 17,07 cm/24h, na Trilha da Parnaioca, Ilha Grande. A área de vida de H. contusulus é pequena, sendo de, no máximo, 0,48 m2 em três dias e 3,64 m2 em 79 dias. O deslocamento da espécie variou ao longo do ano, mas esta variação não é afetada pelas variáveis ecológicas estudadas. Este é, portanto, um comportamento plástico em H. contusulus e, provavelmente, controlado por fatores endógenos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos um estudo preliminar da produção difrativa de mésons utilizando dados obtidos da colisão próton-próton, a energias de centro de massa de 7 TeV, com o experimento CMS-LHC. O trabalho inclui o desenvolvimento do algoritmo de reconstrução dos mésons D* através do canal de decaimento D*->D0 + pion (lento) ->K+pion, a medida da eficiência de detecção e reconstrução, e uma análise do comportamento de variáveis cinemáticas na produção difrativa dessas partículas, particularmente, das lacunas de rapidez. Para isso, foi utilizada uma luminosidade integrada de 3,171pb^(-1) de dados coletados no ano de 2010. As análises com os dados experimentais foram comparadas com os resultados obtidos com geradores de Monte Carlo PYTHIA6, PYTHIA8 e POMPYT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As comunidades marinhas são afetadas por diversos fatores, que dentro do contexto de estrutura trófica, podem ser divididos em forças bottom-up (forças ascendentes), como por exemplo, a disponibilidade de nutrientes, e forças top-down (forças descendentes), como por exemplo, a predação. Além de modificações na estrutura das comunidades e populações de organismos, essas forças podem influenciar a produção de metabólitos secundários pelos organismos. O presente trabalho teve como objetivo avaliar o efeito das perturbações ambientais geradas pelas manipulações separadas e interativas de exclusão de macropredadores e enriquecimento com nutrientes sobre a estrutura e sobre as respostas metabólicas de comunidades marinhas incrustantes de substratos artificiais no costão rochoso de Biscaia, Baía da Ilha Grande, RJ. O desenho experimental utilizou blocos de concreto como substrato artificial, os quais foram espalhados aleatoriamente na região de infralitoral do costão rochoso. O experimento compreendeu o uso de blocos Controle (ausência de manipulação) e quatro tratamentos, todos com cinco réplicas cada. Os tratamentos foram: tratamento Exclusão de predação (gaiola contra a ação de macropredadores), tratamento Nutriente (sacos de fertilizante de liberação lenta), tratamento Nutriente + exclusão de predação (gaiola contra ação de macropredadores e sacos de fertilizante de liberação lenta) e o tratamento Controle de artefatos (gaiola semifechada para avaliar geração de artefatos). Uma área de 15 x 15 cm do bloco foi monitorada a cada 20 dias, totalizando dez medições. Foram utilizados métodos de monitoramento visual e digital de porcentagem de cobertura por espécie. O enriquecimento com nutrientes foi avaliado através de medições da concentração dos nutrientes Ortofosfato, Nitrato, Nitrito e Amônio na água do entorno do bloco. Para analisar os possíveis artefatos foi realizado experimento de fluxo de água (método Clod card) e a luminosidade dentro das gaiolas foi medida. Os dados demonstraram modificações na estrutura das comunidades bentônicas incrustantes dos substratos artificiais devido às manipulações realizadas, ou seja, pelo enriquecimento com nutrientes, pela exclusão de predação e pela interação entre os dois fatores (Nutriente + exclusão de predação). Além disso, diferenças metabólicas foram detectadas nas substâncias extraídas dos organismos dos diferentes tratamentos do experimento. Esses resultados indicam a existência de controle top-down e bottom-up sobre a comunidade bentônica do local.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Compact Muon Solenoid (CMS) é um dos principais detectores instalados no LHC que possibilita o estudo de diferentes aspectos da Física, indo do Modelo Padrão à matéria escura. Esse detector de propósito geral, foi construído para ser capaz de medir múons com uma grande precisão e todos os seus subdetectores foram construídos com uma alta granularidade, tornando possível identificar e caracterizar as propriedades cinemáticas das partículas finais da colisão. O algoritmo de reconstrução de eventos inclui a identificação de jatos, ou seja, é possível identificar a assinatura da produção de pártons na colisão e a medida de seções de choque da produção de muitos jatos é um dos métodos para se explorar as contribuições da Cromodinâmica Quântica (Quantum Chromodynamics - QCD) perturbativa, permitindo avaliar as previsões implementadas nas simulações de eventos. Tendo em vista a caracterização de processos relacionados com a QCD em colisões de próton-próton a uma energia do centro de massa de 7 TeV, é apresentada a medida da seção de choque da produção inclusiva de multijatos no CMS. Para realizar essa medida foram utilizados dados reais coletados em 2010, onde não se apresentava muitas colisões por cruzamento de pacote, com uma luminosidade integrada de L = 2,869 pb-1 e utilizando jatos que estão em quase todo o espaço de fase acessível em pseudorapidez |n|≤ 4,8 e momentum transverso pT ≥ 30 GeV/ c2. Desse resultado foram removidos os efeitos de detecção comparado com predições simuladas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta-se neste trabalho um estudo sobre o impacto do empilhamento de eventos (pile-up), nas distribuições das variáveis comumente utilizadas para identificar eventos difrativos, na topologia de difração dura simples produzindo dijatos, nas condições do CMS para baixa luminosidade (2 x 1033 cm -2 s-1). O cenário de baixa luminosidade citado acima equivale aproximadamente a 5 eventos de pile-up em média por cruzamento de pacotes. Para simular o sinal, difrativos (com e sem pile-up), usamos o gerador POMWIG (1). Para os eventos não-difrativos (com e sem pile-up), utilizamos o gerador PYTHIA (2),bem como para a produção dos eventos de pile-up (eventos simulados utilizando eventos de minimum bias).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre a produção de dijatos exclusivos em interações pp, do tipo pp → p "+" dijatos "+" p, onde os prótons desta interação permanecem intactos, e o símbolo "+" indica uma lacuna na pseudorapidez, uma região com ausência de atividade hadrônica entre os prótons espalhados e o sistema central de dijatos; este processo é conhecido como produção central exclusiva. A análise utiliza uma amostra de dados que corresponde a uma luminosidade efetiva de 24;48 pb-1 coletados pelo experimento Compact Muon Solenoid (CMS) no Large Hadron Collider (LHC), no ano de 2010, com energia de centro de massa √s = 7 TeV. Este canal possui uma assinatura experimental única, caracterizada pelos prótons espalhados na região frontal, ou a baixos ângulos e duas grandes lacunas opostas. O processo da produção central exclusiva é útil para o entendimento das interações no contexto da QCD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A filosofia viveu um tempo de luminosidade crua em que havia contentamento (pelo menos entre os filósofos dignos de serem estudados) com a postulação das condições de possibilidade que cabiam no horizonte que essa luz podia, então, iluminar. Tudo que escapasse desse horizonte era obscuridade, irracionalidade, mera especulação e, pior de todas as ofensas: metafísica. Mas, alguma filosofia do séc. XX encontrou uma outra distribuição de luminosidade que permitiu um pensamento em claro-escuro, em tonalidades nuançadas em que a nitidez absoluta dos contornos se viu fluidificar, em que as figuras puras e sólidas se mostraram como híbridas, nebulosas derramadas, em que os objetos entraram na história e os homens se misturaram com a natureza, em que os movimentos do mundo e as imagens na consciência saíram da dualidade das qualidades primárias e secundárias e se aventuraram em novas perspectivas (aventuras que ainda atravessam desde a fenomenologia até o cinema). É neste cenário de novas distribuições que reaparece a questão da individuação apontando para uma outra concepção do indivíduo, não mais substancial e suporte de qualidades, não mais ancorado nos pares matéria e forma, atual e potencial. Tais pares se revelam insuficientes por não darem conta das impurezas que vêm à tona e das surpreendentes possibilidades inventadas (simbioses, alianças, infecções) e não somente atualizadas a partir de um potencial (filiação, reprodução). Nesse novo modo de compor, o atributo não mais se remete a um predicado qualidade, mas ao acontecimento, não mais às possibilidades latentes, mas à potência a ser inventada nas composições, nas relações constituintes dos diferentes modos de existência. Simondon foi o primeiro filósofo a levar em conta, de modo específico, o indivíduo se inventando em composição, daí ter renovado a questão da individuação e transformado o estatuto da relação. O ser é relação, tal é, com Simondon, a proposição que passa a figurar no centro do pensamento da individuação. Mas se, por um lado, havia essa promoção da relação, por outro lado, parecia não haver a liberação dos modos que, enfim, remetiam a uma natureza dos possíveis. Mesmo não funcionando como princípio, essa natureza parecia capturar os modos num potencial, de tal maneira que um novo humanismo, tão sufocante quanto qualquer outro, acompanhava toda a produção de Simondon. Não à toa, sua narrativa dos diferentes modos se fecha no encontro de uma unidade capaz de suportar o multirealismo dos híbridos que surgiam por toda parte. As metas, os sentidos do devir que povoam a obra de Simondon não seriam os ecos de uma velha moral da pureza, da luminosidade branca?Para escapar desse rebatimento da aventura dos modos em tipos privilegiados de relação que levavam a restaurar a unidade perdida, era preciso se lançar na inocência do processo das inumeráveis atividades de um tecido sem base, jogo de linhas impuras em cruzamentos inventados a cada momento. Nesse sentido: era o pensamento especulativo, expresso em sua própria escrita em zig-zag, de Whitehead já um antídoto aos possíveis rebatimentos da nova filosofia da individuação num mundo por demais reconhecido? É esse o espírito da composição nesse trabalho: a individuação simondoneana com a insistência em se entregar à aventura inocente dos processos se fazendo que se encontra em Whitehead (e nos muitos aliados que foram convocados para que outras músicas se façam ouvir).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse estudo foi comparar a capacidade de dois materiais restauradores em prevenir a descoloração coronária causada pela minociclina como medicação intracanal e propor uma técnica de fácil implementação para encorajar o uso da pasta tri-antibiótica para desinfecção do sistema de canais radiculares durante procedimentos de regeneração pulpar sem perda estética. Cem dentes foram selecionados, seus canais radiculares foram instrumentados e divididos em quatro grupos de acordo com o tratamento dentinário utilizado: Grupo OB- Agente adesivo OptiBond All-In-One (KERR); Grupo U200- Cimento resinoso auto-condicionante e auto adesivo RelyX U200 (3M ESPE); Grupo MIN- Sem revestimento; Grupo CN- Sem revestimento (controle negativo). Em todos os grupos, com exceção do CN, foi utilizada pasta de minociclina como medicação intracanal coberta por uma bolinha de algodão e vedados com restauração provisória. As medições de cor foram realizadas com um espectrofotômetro no início do estudo (T0), e 7(T7), 14 (T14), 21 (T21) e 28 dias (T28) pós-minociclina. Os resultados obtidos foram submetidos à análise estatística. As diferenças de cor (E*) foram crescentes nos grupos CN, OB, U200 e MIN, respectivamente. A diferença de luminosidade (L*) foi também crescente nos grupos CN, OB, U200 e MIN, respectivamente. Houve diferença significante entre os grupos MIN e CN, e entre os grupos MIN e U200 (p<0,05). O eixo amarelo-azul (b*) não apresentou alteração de cor significante (p>0,05). Uma alteração de cor significante no eixo vermelho-verde (a*) foi observada no grupo MIN em relação ao grupo CN (p<0,05). Portanto, conclui-se que a técnica foi fácil de ser implementada, ambos materiais reduziram a descoloração da coroa causada pela pasta de minociclina mas foram ineficazes em impedi-la completamente.