991 resultados para Processor cores
Resumo:
A cor é um atributo perceptual que nos permite identificar e localizar padrões ambientais de mesmo brilho e constitui uma dimensão adicional na identificação de objetos, além da detecção de inúmeros outros atributos dos objetos em sua relação com a cena visual, como luminância, contraste, forma, movimento, textura, profundidade. Decorre daí a sua importância fundamental nas atividades desempenhadas pelos animais e pelos seres humanos em sua interação com o ambiente. A psicofísica visual preocupa-se com o estudo quantitativo da relação entre eventos físicos de estimulação sensorial e a resposta comportamental resultante desta estimulação, fornecendo dessa maneira meios de avaliar aspectos da visão humana, como a visão de cores. Este artigo tem o objetivo de mostrar diversas técnicas eficientes na avaliação da visão cromática humana através de métodos psicofísicos adaptativos.
Resumo:
Sediment cores are an essential tool for the analysis of the dynamics of mangrove succession. Coring was used to correlate changes in depositional environments and lateral sedimentary facies with discrete stages of forest succession at the Cananéia-Iguape Coastal System in southeastern Brazil. A local level successional pattern was examined based on four core series T1) a sediment bank; T2) a smooth cordgrass Spartina alterniflora bank; T3) an active mangrove progradation fringe dominated by Laguncularia racemosa, and; T4) a mature mangrove forest dominated by Avicennia schaueriana. Cores were macroscopically described in terms of color, texture, sedimentary structure and organic components. The base of all cores exhibited a similar pattern suggesting common vertical progressive changes in depositional conditions and subsequent successional colonization pattern throughout the forest. The progradation zone is an exposed bank, colonized by S. alterniflora. L. racemosa, replaces S. alterniflora as progradation takes place. As the substrate consolidates A. schaueriana replaces L. racemosa and attains the greatest structural development in the mature forest. Cores collected within the A. schaueriana dominated stand contained S. alterniflora fragments near the base, confirming that a smooth cordgrass habitat characterized the establishment and early seral stages. Cores provide a reliable approach to describe local-level successional sequences in dynamic settings subject to drivers operating on multiple temporal and spatial scales where spatial heterogeneity can lead to multiple equilibria and where similar successional end-points may be reached through convergent paths.
Resumo:
We consider the concerted evolution of viral genomes in four families of DNA viruses. Given the high rate of horizontal gene transfer among viruses and their hosts, it is an open question as to how representative particular genes are of the evolutionary history of the complete genome. To address the concerted evolution of viral genes, we compared genomic evolution across four distinct, extant viral families. For all four viral families we constructed DNA-dependent DNA polymerase-based (DdDp) phylogenies and in addition, whole genome sequence, as quantitative descriptions of inter-genome relationships. We found that the history of the polymerase gene was highly predictive of the history of the genome as a whole, which we explain in terms of repeated, co-divergence events of the core DdDp gene accompanied by a number of satellite, accessory genetic loci. We also found that the rate of gene gain in baculovirus and poxviruses proceeds significantly more quickly than the rate of gene loss and that there is convergent acquisition of satellite functions promoting contextual adaptation when distinct viral families infect related hosts. The congruence of the genome and polymerase trees suggests that a large set of viral genes, including polymerase, derive from a phylogenetically conserved core of genes of host origin, secondarily reinforced by gene acquisition from common hosts or co-infecting viruses within the host. A single viral genome can be thought of as a mutualistic network, with the core genes acting as an effective host and the satellite genes as effective symbionts. Larger virus genomes show a greater departure from linkage equilibrium between core and satellites functions.
Resumo:
Sedimentary organic matter is a good tool for environmental evaluation where the sediments are deposited. We determined the elemental and C- and N-isotopic compositions of 211 sub-surface sediment samples from 13 cores (ranging from 18 to 46cm), collected in the Cananeia-Iguape estuarine-lagoonal system. The aim of this research is to evaluate the environmental variations of this tropical coastal micro-tidal system over the last decades, through SOM distribution. The studied parameters show differences between the cores located in the northern (sandy-silt sediments) and southern (sand and silty-sand) portions. The whole area presents a mixed organic matter origin signature (local mangrove plants: < -25.6 parts per thousand PDB/ phytoplancton delta(13)C values: -19.4 parts per thousand PDB). The northern cores, which submitted higher sedimentation deposition (1.46cm year(-1)), are more homogenous, presenting lower delta(13)C (< -25.2 parts per thousand PDB) and higher C/N values (in general >14), directly related to the terrestrial input from Ribeira de Iguape River (24,000 km(2) basin). The southern portion presents lower sedimentation rates (0.38cm year(-1)) and is associated to a small river basin (1,340 km(2)), presenting values Of delta(13)C: -25.0 to 23.0 parts per thousand PDB and of C/N ratio: 11 to 15. In general, the elemental contents in the 15 cores may be considered from low to medium (< 2.0% C - < 0.1% N), compared to similar environments. Although a greater marine influence is observed in the southern system portion, the majority of the cores present an elevated increase of continental deposition, most likely related to the strong silting process that the area has been subjected to since the 1850s, when an artificial channel was built linking, directly, the Ribeira River to the estuarine-lagoonal system.
Resumo:
This paper proposes and describes an architecture that allows the both engineer and programmer for defining and quantifying which peripheral of a microcontroller will be important to the particular project. For each application, it is necessary to use different types of peripherals. In this study, we have verified the possibility for emulating the behavior of peripheral in specifically CPUs. These CPUs hold a RAM memory, where code spaces specifically written for them could represent the behavior of some target peripheral, which are loaded and executed on it. We believed that the proposed architecture will provide larger flexibility in the use of the microcontrolles since this ""dedicated hardware components"" don`t execute to a special function, but it is a hardware capable to self adapt to the needs of each project. This research had as fundament a comparative study of four current microcontrollers. Preliminary tests using VHDL and FPGAs were done.
Resumo:
Context.-Studies analyzing the concordance of biopsy and radical prostatectomy (RP) Gleason scores have limitations. Some included 2 or more centers, used historical controls from the early prostate specific antigen era or lacked a clear definition of the biopsy schemes. Furthermore, most did not control the results for prostate volume. Objective.-To confirm whether prediction of RP Gleason score can be optimized by taking more biopsy cores in a contemporary series of patients, with pathologic samples analyzed by the same pathologist, and controlling these results for prostate volume. Design.-The study comprised a retrospective case-control analysis of 393 patients with prostate cancer treated with RP. Patients were divided into 3 groups: those in group 1 underwent a 6-core biopsy; group 2, an 8-core biopsy; and group 3, a 10 or more-core biopsy. Concordance rates between biopsy and RP Gleason scores, as well as the rates of undergrading and overgrading, were determined for each biopsy scheme. Results.-Concordance rates were 60.9%, 58.3%, and 64.6% for patients from groups 1, 2, and 3, respectively (P = .18). When we analyzed patients with prostate volumes of less than 50 cm(3), concordance rates were 58.3%, 58.3%, and 65.1% for each group, respectively (P = .03). Among patients with prostate volumes of 50 cm3 or more, concordance rates were 70%, 58.1%, and 63.6%, respectively (P = .66). Conclusions.-Taking 10 or more cores can improve the prediction of RP Gleason score in patients with prostate volumes of less than 50 cm3. For patients with prostate volumes of 50 cm3 or more, increasing the biopsy cores to 10 or more did not improve prediction of RP Gleason score.
Resumo:
Recent investigations have demonstrated the presence of an unidentified source of polychlorinated dibenzo-p-dioxins (PCDDs) in the coastal zone of Queensland (Australia). The present study provides new information on the possible PCDD sources and their temporal input to this environment. Two estuarine sediment cores were collected in northern Queensland for which radiochemical chronologies were established. Core sections from different depositional ages, up to three centuries, have been analyzed for 2,3,7,8-substituted PCDDs and polychlorinated dibenzofurans (PCDFs). Variations of PCDD concentrations in the sediment cores over several centuries of depositional history were relatively small, and elevated PCDD levels were still present in sediment slices from the early 17th century. PCDD/F isomer patterns and congener profiles in sediments deposited during the last 350 years were almost identical and correlated well to the characteristic profiles observed in surface sediments and soils from the entire Queensland coastline. Profiles were dominated by higher chlorinated PCDDs, in particular octachlorodibenzodioxin (OCDD), whereas PCDF concentrations were below or near the limit of detection. These results indicate the presence of a PCDD source prior to industrialization and production of commercial organochlorine products. Further, the present study demonstrates that PCDD input patterns have been similar along an extensive but localized area over at least several centuries, contributing relatively high concentrations of PCDDs to the coastal system of Queensland.
Resumo:
Lipophilic polyfunctional carbohydrate core/templates have been designed and developed for drug/vaccine delivery. Three carbohydrate-based templates containing four protected N-terminal arms were synthesised from glucose and galactose. Methyl alpha-D-glucopyranoside was converted to two derivatives bearing a carboxylic acid handle for attachment to solid supports, spacer arms of differing hydrophilicity, and phthaloyl-protected amino groups suitable for peptide chain extension. beta-D-Galactopyranosyl azide was converted to a template bearing a carboxylic acid handle and four BOC-protected amines. All the templates were found to be suitable for attachment to solid supports and subsequent cleavage from resins, using either BOC- or FMOC-methodologies.
Resumo:
Analisou-se a validade da utilização da fita "CIMDER de 3 cores" pelos agentes de saúde do Estado de Rondônia, Brasil, como instrumento de detecção de risco nutricional entre crianças menores de 5 anos, para fins de encaminhamento para controle em unidades de maior complexidade que o posto de saúde. De uma amostra composta por 1.268 crianças, compararam-se os resultados da classificação nutricional obtida pela fita e da resultante da classificação de Gomez. A aplicação dos testes de validação resultou nos seguintes valores: sensibilidade = 77,1 %; especificidade = 68,8%; valor prPolonoroeste) editivo positivo = 59,0%; valor preditivo negativo = 83,7%; taxa de falsos positivos = 31,2%; taxa de falsos negativos = 22,9. Excetuando a taxa de falsos positivos, os demais resultados foram considerados suficientemente satisfatórios para que se recomende o uso da fita CIMDER como instrumento de triagem pelos agentes de saúde de Rondônia. Outros indicadores mais específicos deverão ser adotados em nível das unidades de saúde de maior complexidade para reduzir o número de falsos positivos nos programas de assistência dirigidos aos desnutridos.
Resumo:
Trabalho apresentado em XIII Congreso Internacional Galego-Portugués de Psicopedagoxía, Área 1 Aprendizage, Memoria y Motivación. Universidad da Coruña, 2 de Setembro de 2015.
Resumo:
Trabalho apresentado em XIII Congreso Internacional Galego-Portugués de Psicopedagoxía, Área 1 Aprendizage, Memoria y Motivación. Universidad da Coruña, 2 de Setembro de 2015.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
O objectivo deste artigo é aplicar aos Estudos de Tradução Literária o binómio literatura-imagem com origem no Expressionismo alemão e no Vorticismo inglês, optando por um suporte teórico tão seminal quanto a ficcionalidade a que se destinava a expectativa programática dessas vanguardas, nas décadas dez e vinte do passado século. Da poética visual de Wassily Kandinsky, formulada em Über das Geistige in der Kunst - insbesondere in der Malerei [Do Espiritual na Arte](Kandinsky, 1912/1952), falarei da noção de Vibração. Da poética textual de Ezra Pound, exposta em ―I Gather the Limbs of Osiris‖ (1911/12), remeterei para a Teoria dos Detalhes Luminosos. São duas poéticas que, partindo de meios de expressão distintos – a imagem e a palavra, apresentam consideráveis pontos de contacto, no que diz respeito à abordagem produtiva e receptiva do objecto artístico. Ambas suspendem a procura convencional de um sentido na arte e na literatura, reunindo novas possibilidades exegéticas e, por conseguinte, tradutivas: a articulação entre a palavra poética e a imagem, com um amplo leque de possibilidades relativo a modos de estrutura perceptual, que se viriam a revelar proféticos, muito especialmente no que diz respeito à Tradução Artística, seja literária ou intersemiótica.
Resumo:
In this paper we survey the most relevant results for the prioritybased schedulability analysis of real-time tasks, both for the fixed and dynamic priority assignment schemes. We give emphasis to the worst-case response time analysis in non-preemptive contexts, which is fundamental for the communication schedulability analysis. We define an architecture to support priority-based scheduling of messages at the application process level of a specific fieldbus communication network, the PROFIBUS. The proposed architecture improves the worst-case messages’ response time, overcoming the limitation of the first-come-first-served (FCFS) PROFIBUS queue implementations.
Resumo:
Many-core platforms based on Network-on-Chip (NoC [Benini and De Micheli 2002]) present an emerging technology in the real-time embedded domain. Although the idea to group the applications previously executed on separated single-core devices, and accommodate them on an individual many-core chip offers various options for power savings, cost reductions and contributes to the overall system flexibility, its implementation is a non-trivial task. In this paper we address the issue of application mapping onto a NoCbased many-core platform when considering fundamentals and trends of current many-core operating systems, specifically, we elaborate on a limited migrative application model encompassing a message-passing paradigm as a communication primitive. As the main contribution, we formulate the problem of real-time application mapping, and propose a three-stage process to efficiently solve it. Through analysis it is assured that derived solutions guarantee the fulfilment of posed time constraints regarding worst-case communication latencies, and at the same time provide an environment to perform load balancing for e.g. thermal, energy, fault tolerance or performance reasons.We also propose several constraints regarding the topological structure of the application mapping, as well as the inter- and intra-application communication patterns, which efficiently solve the issues of pessimism and/or intractability when performing the analysis.