733 resultados para Segmented HPGe
Resumo:
With continuing advances in CMOS technology, feature sizes of modern Silicon chip-sets have gone down drastically over the past decade. In addition to desktops and laptop processors, a vast majority of these chips are also being deployed in mobile communication devices like smart-phones and tablets, where multiple radio-frequency integrated circuits (RFICs) must be integrated into one device to cater to a wide variety of applications such as Wi-Fi, Bluetooth, NFC, wireless charging, etc. While a small feature size enables higher integration levels leading to billions of transistors co-existing on a single chip, it also makes these Silicon ICs more susceptible to variations. A part of these variations can be attributed to the manufacturing process itself, particularly due to the stringent dimensional tolerances associated with the lithographic steps in modern processes. Additionally, RF or millimeter-wave communication chip-sets are subject to another type of variation caused by dynamic changes in the operating environment. Another bottleneck in the development of high performance RF/mm-wave Silicon ICs is the lack of accurate analog/high-frequency models in nanometer CMOS processes. This can be primarily attributed to the fact that most cutting edge processes are geared towards digital system implementation and as such there is little model-to-hardware correlation at RF frequencies.
All these issues have significantly degraded yield of high performance mm-wave and RF CMOS systems which often require multiple trial-and-error based Silicon validations, thereby incurring additional production costs. This dissertation proposes a low overhead technique which attempts to counter the detrimental effects of these variations, thereby improving both performance and yield of chips post fabrication in a systematic way. The key idea behind this approach is to dynamically sense the performance of the system, identify when a problem has occurred, and then actuate it back to its desired performance level through an intelligent on-chip optimization algorithm. We term this technique as self-healing drawing inspiration from nature's own way of healing the body against adverse environmental effects. To effectively demonstrate the efficacy of self-healing in CMOS systems, several representative examples are designed, fabricated, and measured against a variety of operating conditions.
We demonstrate a high-power mm-wave segmented power mixer array based transmitter architecture that is capable of generating high-speed and non-constant envelope modulations at higher efficiencies compared to existing conventional designs. We then incorporate several sensors and actuators into the design and demonstrate closed-loop healing against a wide variety of non-ideal operating conditions. We also demonstrate fully-integrated self-healing in the context of another mm-wave power amplifier, where measurements were performed across several chips, showing significant improvements in performance as well as reduced variability in the presence of process variations and load impedance mismatch, as well as catastrophic transistor failure. Finally, on the receiver side, a closed-loop self-healing phase synthesis scheme is demonstrated in conjunction with a wide-band voltage controlled oscillator to generate phase shifter local oscillator (LO) signals for a phased array receiver. The system is shown to heal against non-idealities in the LO signal generation and distribution, significantly reducing phase errors across a wide range of frequencies.
Resumo:
We investigate a planar ion chip design with a two-dimensional array of linear ion traps for the scalable quantum information processor. The segmented electrodes reside in a single plane on a substrate and a grounded metal plate, a combination of appropriate rf and DC potentials are applied to them for stable ion confinement, and the trap axes are located above the surface at a distance controlled by the electrodes' lateral extent and the substrate's height as discussed. The potential distributions are calculated using static electric field qualitatively. This architecture is conceptually simple and many current microfabrication techniques are feasible for the basic structure. It may provide a promising route for scalable quantum computers.
Resumo:
Part 1 of this thesis is about the 24 November, 1987, Superstition Hills earthquakes. The Superstition Hills earthquakes occurred in the western Imperial Valley in southern California. The earthquakes took place on a conjugate fault system consisting of the northwest-striking right-lateral Superstition Hills fault and a previously unknown Elmore Ranch fault, a northeast-striking left-lateral structure defined by surface rupture and a lineation of hypocenters. The earthquake sequence consisted of foreshocks, the M_s 6.2 first main shock, and aftershocks on the Elmore Ranch fault followed by the M_s 6.6 second main shock and aftershocks on the Superstition Hills fault. There was dramatic surface rupture along the Superstition Hills fault in three segments: the northern segment, the southern segment, and the Wienert fault.
In Chapter 2, M_L≥4.0 earthquakes from 1945 to 1971 that have Caltech catalog locations near the 1987 sequence are relocated. It is found that none of the relocated earthquakes occur on the southern segment of the Superstition Hills fault and many occur at the intersection of the Superstition Hills and Elmore Ranch faults. Also, some other northeast-striking faults may have been active during that time.
Chapter 3 discusses the Superstition Hills earthquake sequence using data from the Caltech-U.S.G.S. southern California seismic array. The earthquakes are relocated and their distribution correlated to the type and arrangement of the basement rocks. The larger earthquakes occur only where continental crystalline basement rocks are present. The northern segment of the Superstition Hills fault has more aftershocks than the southern segment.
An inversion of long period teleseismic data of the second mainshock of the 1987 sequence, along the Superstition Hills fault, is done in Chapter 4. Most of the long period seismic energy seen teleseismically is radiated from the southern segment of the Superstition Hills fault. The fault dip is near vertical along the northern segment of the fault and steeply southwest dipping along the southern segment of the fault.
Chapter 5 is a field study of slip and afterslip measurements made along the Superstition Hills fault following the second mainshock. Slip and afterslip measurements were started only two hours after the earthquake. In some locations, afterslip more than doubled the coseismic slip. The northern and southern segments of the Superstition Hills fault differ in the proportion of coseismic and postseismic slip to the total slip.
The northern segment of the Superstition Hills fault had more aftershocks, more historic earthquakes, released less teleseismic energy, and had a smaller proportion of afterslip to total slip than the southern segment. The boundary between the two segments lies at a step in the basement that separates a deeper metasedimentary basement to the south from a shallower crystalline basement to the north.
Part 2 of the thesis deals with the three-dimensional velocity structure of southern California. In Chapter 7, an a priori three-dimensional crustal velocity model is constructed by partitioning southern California into geologic provinces, with each province having a consistent one-dimensional velocity structure. The one-dimensional velocity structures of each region were then assembled into a three-dimensional model. The three-dimension model was calibrated by forward modeling of explosion travel times.
In Chapter 8, the three-dimensional velocity model is used to locate earthquakes. For about 1000 earthquakes relocated in the Los Angeles basin, the three-dimensional model has a variance of the the travel time residuals 47 per cent less than the catalog locations found using a standard one-dimensional velocity model. Other than the 1987 Whittier earthquake sequence, little correspondence is seen between these earthquake locations and elements of a recent structural cross section of the Los Angeles basin. The Whittier sequence involved rupture of a north dipping thrust fault bounded on at least one side by a strike-slip fault. The 1988 Pasadena earthquake was deep left-lateral event on the Raymond fault. The 1989 Montebello earthquake was a thrust event on a structure similar to that on which the Whittier earthquake occurred. The 1989 Malibu earthquake was a thrust or oblique slip event adjacent to the 1979 Malibu earthquake.
At least two of the largest recent thrust earthquakes (San Fernando and Whittier) in the Los Angeles basin have had the extent of their thrust plane ruptures limited by strike-slip faults. This suggests that the buried thrust faults underlying the Los Angeles basin are segmented by strike-slip faults.
Earthquake and explosion travel times are inverted for the three-dimensional velocity structure of southern California in Chapter 9. The inversion reduced the variance of the travel time residuals by 47 per cent compared to the starting model, a reparameterized version of the forward model of Chapter 7. The Los Angeles basin is well resolved, with seismically slow sediments atop a crust of granitic velocities. Moho depth is between 26 and 32 km.
Resumo:
O gênero Pterodon pertence à família das Papilonaceas e inclui cinco espécies nativas do Brasil: P. pubescens Benth., P. emarginatus Vog., P. apparicioi Pedersoli e P. abruptus Benth., sendo a espécie objeto deste estudo a P. polygalaeflorus Benth.. Seus frutos são livremente comercializados em mercados da flora medicinal e utilizados pela medicina popular devido a propriedades anti-reumática, analgésica, antiinflamatória, dentre outros efeitos associados a esses frutos. O principal uso popular está relacionado ao efeito antiartrítico que parece se encontrar na fração oleosa do fruto. O objetivo deste trabalho foi avaliar o extrato etanólico de Pterodon polygalaeflorus (EEPpg) quanto ao seu potencial antiinflamatório crônico através do modelo de artrite induzida por colágeno (CIA) e seu efeito sobre os linfócitos in vitro, bem como sobre a expansão de células MAC-1+ induzida por adjuvante completo de Freund (AFC). A caracterização química do EEPpg foi realizada por cromatografia em camada delgada (TLC), cromatografia líquida de alta performance (HPLC) e cromatografia gasosa acoplada a espectrômetro de massa (GC-MS), através dos quais uma gama de compostos, incluindo terpenóides de polaridades variadas e flavonóides, foram observados. No modelo de CIA, o EEPpg reduziu significativamente parâmetros associados ao desenvolvimento e progressão da doença e à severidade da doença , inibindo em até 99% o seu desenvolvimento e levando a ausência de sinais clínicos evidentes após tratamento com as menores doses do extrato (0,01 mg/kg e 0,001 mg/kg). O tratamento com EEPpg também reduziu características histopatológicas típicas de articulações de animais com CIA, que também são observadas na artrite reumatóide. O EEPpg reduziu significativamente o peso dos linfonodos dos camundongos, bem como o número absoluto de segmentados, monócitos e linfócitos no sangue. In vitro, O EEPpg mostrou uma atividade anti-proliferativa dos esplenócitos estimulados com concanavalina A (Con A) ou lipopolissacarídeo (LPS) analisada através do ensaio de redução do sal de tetrazólio MTT, corroborada pelo seu efeito sobre o ciclo celular de linfócitos estimulados com Con A, onde o EEPpg nas concentrações de 5, 10 e 20 μg/mL reduziu significativamente, de maneira concentração-dependente, o número de células nas fases S+G2/M e aumentou na fase G0/G1 do ciclo celular. O efeito anti-proliferativo do EEPpg parece também estar associado ao aumento da apoptose dos linfócitos após estimulação com Con A, com aumento estatisticamente significativo no percentual de células mortas por apoptose nas maiores concentrações . O EEPpg inibiu a expansão de células Mac-1+ induzida por AFC no baço, porém não no peritônio. Esse resultado sugere um efeito inibidor do EEPpg sobre a migração celular para as articulações artríticas. Esses resultados contribuem para a validação do uso popular de P. polygalaeflorus contra doenças relacionadas a processos inflamatórios e imunes, sobretudo na artrite reumatóide, antes nunca demonstrado.
Resumo:
Este trabalho tem por objetivo contribuir para a melhoria do gerenciamento do processo construtivo de execução de pontes e viadutos em estruturas segmentadas pré-moldadas protendidas, construídas em balanços sucessivos, com base em uma análise das metodologias adotadas e verificando a viabilidade de implantação de um modelo nos processos de gestão que utilizam métodos industriais para execução de obras de arte especiais. A partir da revisão da literatura técnica disponível e tomando como referência os métodos construtivos utilizados em dois canteiros de obras distintos, analisa-se a metodologia de gerenciamento construtivo adotada visando ao aperfeiçoamento do processo de fabricação e montagem, e consequente redução dos custos, desperdícios e prazos. Dentre os vários aspectos observados, ressalta-se a importância de se utilizar uma ferramenta de gerenciamento de projeto nas obras de pontes pré-moldadas, por se mostrarem um processo industrializado, repetitivo e com funcionamento similar a uma unidade fabril. Neste contexto, esta pesquisa visa fornecer subsídios para que se possam estabelecer diretrizes para uma melhor integração do projeto com a construção e conseqüente melhoria da execução nos canteiros de obras.
Resumo:
O estudo das causas múltiplas de óbitos permite conhecer a extensão real das estatísticas de mortalidade, minimizando a subestimação dos dados de mortalidade por asma. O objetivo desta pesquisa foi avaliar a tendência das taxas de mortalidade por asma informada em qualquer linha ou parte do atestado médico da declaração de óbito, no município do Rio de Janeiro, no período de 2000-2009. Os dados foram obtidos no Sistema de Informações de Mortalidade (SIM), no período de 2000 a 2009, nas Declarações de Óbitos (DO) registradas com CID-10 J45 e J46, de residentes do município do Rio de Janeiro, com um ano ou mais de idade. Foram calculadas taxas de mortalidade padronizadas por idade, nas seguintes faixas etárias: 1-4 anos, 5-34 anos, 35-59 anos, 60 e mais anos, considerando-se asma como causa básica e como causas múltiplas, segundo gênero para cada ano do período. Para análise de dados foi utilizado a técnica de regressão linear. No período de 10 anos a asma foi causa básica em 67,2% dos óbitos que mencionaram asma. A subestimação da mortalidade por asma como causa básica, foi igual a 48,7%. A taxa de mortalidade padronizada por asma como causa básica declinou de 2000 a 2009 de 2,22 para 1,72/100.000 habitantes em 2009, (β= -0.06, p=0.017) e como causas múltiplas passou de 3,45 para 2,82/100.000 habitantes (β= -0.11, p=0.005). A análise segundo gênero evidenciou um declínio mais acentuado entre os homens, cuja taxa de mortalidade por asma como causa básica padronizada passou de 1,58/100.000 em 2000 para 0,59/100.000 em 2009 (β= -0.08, p=0.007); como causa múltipla a taxa diminuiu de 2,49/100.000 em 2000 para 1,11/100.000 em 2009 (β= -0.14, p<0.00001). Entre as mulheres a taxa de mortalidade passou de 2,79/100.000 em 2000 para 2,72/100.000 em 2009 como causa básica e de 4,29/100.000 em 2000 para 4,32/100.000 em 2009. A regressão linear segmentada, realizada em dois períodos, de 2000 a 2004 e 2004 a 2009, não foi estatisticamente significativa (2000 a 2004: β= -0,16, p=0,131 e 2004 a 2009: β= 0,04, p=0,630). Do total de óbitos nos quais a asma foi mencionada como causa múltipla 2,8% ocorreram na idade de 1 a 4 anos e 61% na faixa de 60 anos e mais. Quando a asma foi causa básica, as causas associadas mais frequentes foram as doenças do aparelho respiratório e nos óbitos em que foi classificada como causa associada destacaram-se como causas básicas as doenças do aparelho respiratório e circulatório. A magnitude das taxas de mortalidade por asma foi sempre maior nas mulheres comparado aos homens. A série histórica mostrou tendência ao declínio nas taxas de mortalidade, segundo causas básicas e múltiplas, com declínio entre os homens e estabilidade entre as mulheres. A mortalidade por asma foi subestimada quando considerada apenas como causa básica, o que poderia ser evitado com a utilização da metodologia de causas múltiplas nas estatísticas de mortalidade da asma.
Resumo:
218p. -- Tesis con mención "Doctor europeus" realizada en el periodo de Octubre 2005-Mayo 2010, en el Grupo "Materiales+Tecnologías" (GMT).
Resumo:
Este trabalho tem por objetivo verificar se há impacto das republicações das demonstrações contábeis das empresas com ações negociadas na Bovespa no período de 2000 a 2010, no preço de suas ações. O estudo parte do pressuposto de que o mercado Brasileiro de ações é semiforte. A metodologia utilizada nesta pesquisa foi em parte qualitativa ao descrever a amostra e suas características assim como quantitativa na forma dos testes de diferenças de média. Os resultados dos testes mostram que ao se analisar toda a amostra como um único grupo, os retornos anormais encontrados não mostraram diferença significativa em comparação com os valores esperados calculados, mas quando analisados em segmentações distintas pelo tipo de motivação à republicação, foram encontrados evidências de que há diferença significativa entre as amostras das republicações das demonstrações contábeis voluntárias e obrigatórias. Assim como também foram encontrados evidências de que pode haver diferença significativa entre as amostras segmentadas pela natureza do erro apresentado com justificativa para a republicação da demonstração contábil, tanto nos casos de mensuração, quanto classificação e reconhecimento. A mesma evidência é apresentada nos gráficos das médias dos retornos anormais calculados para este estudo.
Resumo:
Diversos pesquisadores têm estudado o comportamento e o emprego de aduelas de concreto, que constituem as vigas segmentadas em sistemas estruturais, de maneira especial pontes e viadutos. Por esta razão, inúmeros trabalhos têm sido publicados nos últimos anos respaldados por testes experimentais e análises numéricas. O comportamento destas vigas contrasta com as clássicas vigas monolíticas em diversos aspectos, pois, a estrutura é composta de partes de elementos de concreto pré-moldado que, após serem posicionados no local definitivo, são protendidos. A protensão pode ser aderente ou não aderente. A principal vantagem deste sistema de construção é a rapidez e o alto controle de qualidade, por isso é largamente utilizado, havendo uma demanda de estudo de previsão do seu real comportamento No presente trabalho apresenta-se uma modelagem numérica via elementos finitos, para simular o comportamento de vigas compostas por aduelas justapostas sem material ligante entre as juntas. A protensão aplicada é aderente e a análise considera a não linearidade da região da junta. Assim sendo, o objetivo desta investigação é dar uma contribuição ao estudo do comportamento estrutural estático de vigas segmentadas, atentando para o comportamento das juntas, utilizando um programa comercial. Para o modelo são empregadas técnicas usuais de discretização, via método dos elementos finitos (MEF), por meio do programa de elementos finitos SAP2000[93]. O modelo proposto é constituído de elementos de placa próprios para concreto para representar a viga, a protensão é introduzida por meio de barras bidimensionais que transferem as tensões ao longo de seu comprimento e as juntas são implementadas utilizando elementos de contato. A analise é bidimensional e considera os efeitos das perdas de protensão. Este trabalho de pesquisa objetiva também o estudo de elementos de contato especialmente as características de deformação para esta ferramenta computacional. A definição dos parâmetros para o modelo foi feita com base em dados experimentais disponíveis na literatura. O modelo numérico foi calibrado e confrontado com resultados experimentais obtidos em ensaios de laboratório.
Resumo:
Este estudo faz uma análise dos debates presidenciais na televisão como eventos persuasivos de campanha. O objetivo foi contribuir para a compreensão não só do papel dessa fonte de informação política no contexto brasileiro, mas discutir também de maneira sistemática os seus possíveis efeitos. Os debates na TV são uma variável comunicacional de curto prazo dos processos eleitorais. Eles oferecem estímulos comunicacionais que são disseminados no ambiente da campanha, seja por quem o assiste diretamente, seja por quem fica sabendo desses eventos e dos desempenhos dos candidatos através de outros dispositivos, como a imprensa e o Horário da Propaganda Gratuita Eleitoral (HPGE). Como apenas informação não basta para explicar mudanças de opinião, focamos o estudo em dois eixos principais. O primeiro deles na identificação e no mapeamento das estratégias persuasivas adotadas pelos candidatos, porque eles são instados a confrontar seus adversários, num evento ao vivo, e por meio do qual os eleitores podem avaliar não só o seu posicionamento político, como a maneira que se apresentam. Está presente, neste caso, um impacto sobre a atitude dos eleitores com relação aos competidores. Os principais resultados indicam haver um padrão no objetivo das mensagens, prevalecendo, no agregado, o ataque entre os candidatos da oposição, e a aclamação entre os candidatos da situação. O posicionamento do candidato, bem como o conteúdo político das mensagens apresentaram resultados significativos para um possível efeito sobre a atitude dos eleitores. No estudo, propomos ainda a análise dos enquadramentos adotados pelos competidores, cuja função é estabelecer um quadro de referência para a audiência. Esta variável, que procura levar em conta aspectos da comunicação verbal e nãoverbal, também apresentou resultados significativos. No segundo eixo analítico, tratamos dos efeitos agregados desses acontecimentos de campanha. Foram analisados os debates de 2002, quando prevalecia um clima de opinião favorável à oposição, e 2010, quando o clima é favorável à situação. Com relação ao impacto dos debates no ambiente informacional, os dados sugerem que, em 2002, a atuação de Luiz Inácio Lula da Silva (PT), candidato da oposição, levou a uma ampliação da cobertura jornalística positiva sobre o candidato; enquanto houve um declínio dessa cobertura para José Serra (PSDB), candidato da situação. Em 2010, na cobertura da imprensa após os debates, tanto a candidata da situação, Dilma Rousseff (PT), quanto o da oposição, José Serra, apresentaram equilíbrio. O impacto no ambiente informacional da campanha foi acompanhado de um aumento da intenção de voto agregada para os candidatos que lideravam as pesquisas e que representavam a mudança em 2002, no caso Lula, ou a continuidade em 2010, no caso Dilma. Nas duas eleições, portanto, os debates na TV no Brasil indicaram ser eventos persuasivos importantes, apesar de terem um papel menos central como dispositivo de informação eleitoral e de não levarem à troca de posição entre os competidores nas pesquisas opinião. Mas eles contribuem, ao menos indiretamente, para consolidar e ampliar intenções de voto dos primeiros colocados a partir de uma percepção positiva disseminada sobre os seus desempenhos.
Resumo:
Este trabalho objetiva investigar os processos de produção de sentidos na construção de políticas curriculares no entre-lugar Educação Infantil - Ensino Fundamental, analisando as articulações/mediações/negociações firmadas nas arenas em que são produzidos os sentidos que se hegemonizam na construção do currículo, observando e compreendendo a Coordenação Pedagógica como instância de articulação/mediação/negociação. Para tanto, optei por observar no contexto amplo no Colégio de Aplicação do Instituto Superior do Rio de Janeiro (CAp-ISERJ) os encontros dos professores da Educação Infantil e Ensino Fundamental realizados como espaço de produção curricular, ancorando-se na perspectiva metodológica da abordagem do ciclo de políticas desenvolvido por Stephen J. Ball, que considera os contextos de influências, contextos da produção de textos e contextos da prática instâncias que não estão segmentadas, superando a ideia de que as políticas curriculares são produzidas pelos governos e a escola as implementa. Esse entendimento insere ainda a Coordenação Pedagógica no contexto que rompe com a perspectiva geralmente a ela associada, de esfera administrativa de onde emana ou representa as políticas governamentais, mas como esfera marcada pela ação de articulação por meio de mediação e negociação no processo de construção dos textos na escola. Introduzo as questões da pesquisa trazendo inicialmente os caminhos pelos quais a pesquisa foi se delineando e os objetivos. No primeiro capítulo situo a pesquisa, o cotidiano escolar e as situações provocadas pela Lei Estadual n 5.488/09 no espaço do CAp-ISERJ. Através dos textos das legislações e orientações curriculares sobre a ampliação do Ensino Fundamental para nove anos, observo seu processo de construção da legislação em vigor a partir do olhar para o lugar da criança com seis anos, em âmbito nacional e com seis/cinco no âmbito estadual. No segundo capítulo, proponho o diálogo a partir da abordagem metodológica do ciclo de políticas em Ball. As leituras de Bhabha e Bakhtin se configuram no horizonte de entendimento dos processos discursivos no espaço dos encontros dos professores como espaço pesquisado. A postura desconstrutivista perpassou a construção do terceiro capítulo; a análise foi desenvolvida a partir dos vieses da integração, como discurso na escola e a criança com cinco anos e como esses sentidos vêm sendo disputados na escola; essa leitura possibilitou o desdobramento das questões relativas a infância, escolarização e ludicidade no processo de negociação das produções de políticas curriculares no contexto da prática. Na impossibilidade da totalidade, as questões inerentes à construção da pesquisa e os fios que foram puxados como aberturas de reflexões não concluem ou não fixam as considerações apresentadas.
Resumo:
A reação álcali-agregado - RAA é uma patologia de ação lenta que tem sido observada em construções de concreto capaz de comprometer suas estruturas. Sabe-se que a reação álcali-agregado é um fenômeno bastante complexo em virtude da grande variedade de rochas na natureza que são empregadas como agregados no preparo do concreto, podendo cada mineral utilizado afetar de forma distinta a reação ocorrida. Em função dos tipos de estrutura, das suas condições de exposição e dos materiais empregados, a RAA não se comporta sempre da mesma forma, em virtude disto a pesquisa constante neste tema é necessária para o meio técnico e a sociedade. Pesquisas laboratoriais, empíricas e experimentais tem sido rotina em muitos dos estudos da RAA dada ainda à carência de certas definições mais precisas a respeito dos métodos de ensaio, mas também em função da necessidade do melhor conhecimento dos materiais de uso em concretos como os agregados, cimentos, adições, aditivos entre outros e do comportamento da estrutura. Embora técnicas de prevenção possam reduzir significativamente a incidência da RAA, muitas estruturas foram construídas antes que tais medidas fossem conhecidas, havendo no Brasil vários casos de estruturas afetadas, sendo custosos os reparos dessas estruturas. Em estudos recentes sobre o tamanho das partículas de álcali-agregado e sua distribuição foi concluído que o tamanho do agregado está relacionado com o potencial danoso da RAA. Existem ainda indícios de que o tamanho e a distribuição dos poros do concreto também sejam capazes de influenciar o potencial reativo do concreto. Neste trabalho desenvolvemos um Sistema de Visão Artificial (SVA) que, com o uso de técnicas de Processamento de Imagens, é capaz de identificar em imagens de concreto, agregado e poros que atendam em sua forma, às especificações do usuário, possibilitando o cálculo da porosidade e produzindo imagens segmentadas à partir das quais será possível extrair dados relativos à geometria desses elementos. Serão feitas duas abordagens para a obtenção das imagens, uma por Escâner Comercial, que possui vantagens relacionadas à facilidade de aquisição do equipamento, e outra por micro tomógrafo. Uma vez obtidas informações sobre as amostras de concreto, estas podem ser utilizadas para pesquisar a RAA, comparar estruturas de risco com estruturas antigas de forma a melhorar a previsão de risco de ocorrência, bem como serem aplicadas a outras no estudo de outras patologias do concreto menos comuns no nosso país, como o efeito gelo/degelo.
Resumo:
Larval development of the sidestriped shrimp (Pandalopsis dispar) is described from larvae reared in the laboratory. The species has five zoeal stages and one postlarval stage. Complete larval morphological characteristics of the species are described and compared with those of related species of the genus. The number of setae on the margin of the telson in the first and second stages is variable: 11+12, 12+12, or 11+11. Of these, 11+12 pairs are most common. The present study confirms that what was termed the fifth stage in the original study done by Berkeley in 1930 was the sixth stage and that the fifth stage in the Berkeley’s study is comparable to the sixth stage that is described in the present study. The sixth stage has a segmented inner flagellum of the antennule and fully developed pleopods with setae. The ability to distinguish larval stages of P. dispar from larval stages of other plankton can be important for studies of the effect of climate change on marine communities in the Northeast Pacific and for marine resource management strategies.
Resumo:
This paper addresses the problem of automatically obtaining the object/background segmentation of a rigid 3D object observed in a set of images that have been calibrated for camera pose and intrinsics. Such segmentations can be used to obtain a shape representation of a potentially texture-less object by computing a visual hull. We propose an automatic approach where the object to be segmented is identified by the pose of the cameras instead of user input such as 2D bounding rectangles or brush-strokes. The key behind our method is a pairwise MRF framework that combines (a) foreground/background appearance models, (b) epipolar constraints and (c) weak stereo correspondence into a single segmentation cost function that can be efficiently solved by Graph-cuts. The segmentation thus obtained is further improved using silhouette coherency and then used to update the foreground/background appearance models which are fed into the next Graph-cut computation. These two steps are iterated until segmentation convergences. Our method can automatically provide a 3D surface representation even in texture-less scenes where MVS methods might fail. Furthermore, it confers improved performance in images where the object is not readily separable from the background in colour space, an area that previous segmentation approaches have found challenging. © 2011 IEEE.
Resumo:
Pavement condition assessment is essential when developing road network maintenance programs. In practice, the data collection process is to a large extent automated. However, pavement distress detection (cracks, potholes, etc.) is mostly performed manually, which is labor-intensive and time-consuming. Existing methods either rely on complete 3D surface reconstruction, which comes along with high equipment and computation costs, or make use of acceleration data, which can only provide preliminary and rough condition surveys. In this paper we present a method for automated pothole detection in asphalt pavement images. In the proposed method an image is first segmented into defect and non-defect regions using histogram shape-based thresholding. Based on the geometric properties of a defect region the potential pothole shape is approximated utilizing morphological thinning and elliptic regression. Subsequently, the texture inside a potential defect shape is extracted and compared with the texture of the surrounding non-defect pavement in order to determine if the region of interest represents an actual pothole. This methodology has been implemented in a MATLAB prototype, trained and tested on 120 pavement images. The results show that this method can detect potholes in asphalt pavement images with reasonable accuracy.