996 resultados para basic block reduce


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Partial dynamic reconfiguration of FPGAs can be used to implement complex applications using the concept of virtual hardware. In this work we have used partial dynamic reconfiguration to implement a JPEG decoder with reduced area. The image decoding process was adapted to be implemented on the FPGA fabric using this technique. The architecture was tested in a low cost ZYNQ-7020 FPGA that supports dynamic reconfiguration. The results show that the proposed solution needs only 40% of the resources utilized by a static implementation. The performance of the dynamic solution is about 9X slower than the static solution by trading-off internal resources of the FPGA. A throughput of 7 images per second is achievable with the proposed partial dynamic reconfiguration solution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Semigroup Forum, nº76 (2008), pg.579-583

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Actas do Encontro de Algebristas Portugueses 2005, Braga, Portugal, Centro de Matemática da Universidade do Minho, (2006),p. 105-116

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Serve o presente para documentar a redução energética a levar a cabo na Escola Básica de Canedo e o seu potencial de poupança. Esta escola é uma no meio de dezenas em Portugal a necessitar de uma intervenção para reduzir os teus custos operacionais e usar a energia de um modo mais eficiente. Serão abrangidas as áreas da energia elétrica, da água e do gás, assim como soluções que reduzam por si só o uso das primeiras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O instável mas tendencialmente crescente preço dos combustíveis associado a preocupações ambientais cada vez mais enraizadas nas sociedades, têm vindo a despoletar uma maior atenção à procura de combustíveis alternativos. Por outro lado, várias projecções indicam um aumento muito acentuado do consumo energético global no curto prazo, fruto do aumento da população e do nível de industrialização das sociedades. Neste contexto, o biodiesel (ésteres de ácidos gordos) obtido através da transesterificação de triglicerídeos de origem vegetal ou animal, surge como a alternativa “verde” mais viável para utilização em equipamentos de combustão. A reacção de transesterificação é catalisada, por norma com recurso a catalisadores homogéneos alcalinos (NaOH ou KOH). Este tipo de processo, o único actualmente com expressão a nível industrial, apresenta algumas desvantagens que, para além de aumentarem o custo do produto final, contribuem para reduzir a benignidade do mesmo: a impossibilidade de reutilização do catalisador, o aumento do número e complexidade das etapas de separação e a produção de efluentes resultantes das referidas etapas. Com o intuito de minimizar ou eliminar estes problemas, vários catalisadores heterogéneos têm vindo a ser estudados para esta reacção. Apesar de muitos apresentarem resultados promissores, a grande maioria não tem viabilidade para aplicação industrial seja devido ao seu próprio custo, seja devido aos pré-tratamentos necessários à sua utilização. Entre estes catalisadores, o óxido de cálcio é talvez o que apresenta resultados mais promissores. O crescente número de estudos envolvendo este catalisador em detrimento de outros, é por si mesmo prova do potencial do CaO. A realização deste trabalho pretendia atingir os seguintes objectivos principais: • Avaliar a elegibilidade do óxido de cálcio enquanto catalisador da reacção de transesterificação de óleos alimentares usados com metanol; • Avaliar qual a sua influência nas características dos produtos finais; • Avaliar as diferenças de performance entre o óxido de cálcio activado em atmosfera inerte (N2) e em ar, enquanto catalisadores da reacção de transesterificação de óleos alimentares usados com metanol; • Optimizar as condições da reacção com recurso às ferramentas matemáticas disponibilizadas pelo planeamento factorial, através da variação de quatro factores chave de influência: temperatura, tempo, relação metanol / óleo e massa de catalisador utilizado. O CaO utlizado foi obtido a partir de carbonato de cálcio calcinado numa mufla a 750 °C durante 3 h. Foi posteriormente activado a 900 °C durante 2h, em atmosferas diferentes: azoto (CaO-N2) e ar (CaO-Ar). Avaliaram-se algumas propriedades dos catalisadores assim preparados, força básica, concentração de centros activos e áreas específicas, tendo-se obtido uma força básica situada entre 12 e 14 para ambos os catalisadores, uma concentração de centros activos de 0,0698 mmol/g e 0,0629 mmol/g e áreas específicas de 10 m2/g e 11 m2/g respectivamente para o CaO-N2 e CaO-Ar. Efectuou-se a transesterificação, com catálise homogénea, da mistura de óleos usados utilizada neste trabalho com o objectivo de determinar os limites para o teor de FAME’s (abreviatura do Inglês de Fatty Acid Methyl Esters’) que se poderiam obter. Foi este o parâmetro avaliado em cada uma das amostras obtidas por catálise heterogénea. Os planos factoriais realizados tiveram como objectivo maximizar a sua quantidade recorrendo à relação ideal entre tempo de reacção, temperatura, massa de catalisador e quantidade de metanol. Verificou-se que o valor máximo de FAME’s obtidos a partir deste óleo estava situado ligeiramente acima dos 95 % (m/m). Realizaram-se três planos factoriais com cada um dos catalisadores de CaO até à obtenção das condições óptimas para a reacção. Não se verificou influência significativa da relação entre a quantidade de metanol e a massa de óleo na gama de valores estudada, pelo que se fixou o valor deste factor em 35 ml de metanol / 85g de óleo (relação molar aproximada de 8:1). Verificou-se a elegibilidade do CaO enquanto catalisador para a reacção estudada, não se tendo observado diferenças significativas entre a performance do CaO-N2 e do CaO-Ar. Identificaram-se as condições óptimas para a reacção como sendo os valores de 59 °C para a temperatura, 3h para o tempo e 1,4 % de massa de catalisador relativamente à massa de óleo. Nas referidas condições, obtiveram-se produtos com um teor de FAME’s de 95,7 % na catálise com CaO-N2 e 95,3 % na catálise com CaO-Ar. Alguns autores de estudos consultados no desenvolvimento do presente trabalho, referiam como principal problema da utilização do CaO, a lixiviação de cálcio para os produtos obtidos. Este facto foi confirmado no presente trabalho e na tentativa de o contornar, tentou-se promover a carbonatação do cálcio com a passagem de ar comprimido através dos produtos e subsequente filtração. Após a realização deste tratamento, não mais se observaram alterações nas suas propriedades (aparecimento de turvação ou precipitados), no entanto, nos produtos obtidos nas condições óptimas, a concentração de cálcio determinada foi de 527 mg/kg no produto da reacção catalisada com CaO-N2 e 475 mg/kg com CaO-A. O óxido de cálcio apresentou-se como um excelente catalisador na transesterificação da mistura de óleos alimentares usados utilizada no presente trabalho, apresentando uma performance ao nível da obtida por catálise homogénea básica. Não se observaram diferenças significativas de performance entre o CaO-N2 e o CaO-Ar, sendo possível obter nas mesmas condições reaccionais produtos com teores de FAME’s superiores a 95 % utilizando qualquer um deles como catalisador. O elevado teor de cálcio lixiviado observado nos produtos, apresenta-se como o principal obstáculo à aplicação a nível industrial do óxido de cálcio como catalisador para a transesterificação de óleos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The question of how interventions from the Competition Authority (CA) affect investment is not a straightforward one: a tougher competition policy might, by reducing the ability to exert market power, either stimulate firms to invest more to counter the restrictions on their actions, or make firms invest less because of the reduced ability to have a return on investment. This tension is illustrated using two models. In one model investment is own-cost-reducing whereas in the other investment is anti-competitive. Anti-competitive investments are defined as investments that increase competitors’ costs. In both models the optimal level of investment is reduced with a tougher competition policy. Furthermore, while in the case of an anti-competitive investment a tougher authority necessarily leads to lower prices, in the case of a cost- reducing investment the opposite may happen when the impact of the investment on cost is sufficiently high. Results for total welfare are ambiguous in the cost- reducing investment model, whereas in the anti-competitive investment model welfare unambiguously increases due to a tougher competition polic

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Speech interfaces for Assistive Technologies are not common and are usually replaced by others. The market they are targeting is not considered attractive and speech technologies are still not well spread. Industry still thinks they present some performance risks, especially Speech Recognition systems. As speech is the most elemental and natural way for communication, it has strong potential for enhancing inclusion and quality of life for broader groups of users with special needs, such as people with cerebral palsy and elderly staying at their homes. This work is a position paper in which the authors argue for the need to make speech become the basic interface in assistive technologies. Among the main arguments, we can state: speech is the easiest way to interact with machines; there is a growing market for embedded speech in assistive technologies, since the number of disabled and elderly people is expanding; speech technology is already mature to be used but needs adaptation to people with special needs; there is still a lot of R&D to be done in this area, especially when thinking about the Portuguese market. The main challenges are presented and future directions are proposed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of the present work was to determine the prevalence of IgG and IgM anti-Toxoplasma gondii antibodies and the factors associated to the infection in pregnant women attended in Basic Health Units in Rolândia, Paraná, Brazil. The sample was divided in two groups: group I (320 pregnant women who were analyzed from July 2007 to February 2008) and group II (287 pregnant women who were analyzed from March to October 2008). In group I, it was found 53.1% of pregnant women with IgG reactive and IgM non-reactive, 1.9% with IgG and IgM reactive, 0.3% with IgG non-reactive and IgM reactive and 44.7% with IgG and IgM non-reactive. In group II, it was found 55.1% with IgG reactive and IgM non-reactive and 44.9% with IgG and IgM non-reactive. The variables associated to the presence of IgG antibodies were: residence in rural areas, pregnant women between 35-40 years old, low educational level, low family income, more than one pregnancy, drinking water which does not originate from the public water supply system and the habit of handling soil or sand. Guidance on primary prevention measures and the quarterly serological monitoring of the pregnant women in the risk group are important measures to prevent congenital toxoplasmosis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A globalização, nas suas diversas dimensões, está a tornar o mundo cada vez mais pequeno, alterando as nossas vidas e transformando a forma como as empresas fazem negócios. Estamos cada vez mais expostos aos traços e práticas das outras culturas à medida que a tecnologia diminui os custos da comunicação global e das viagens. A globalização está a obrigar as empresas a serem mais competitivas ao mesmo tempo que os países reduzem as barreiras ao comércio internacional e ao investimento estrangeiro. A competitividade das empresas obriga-as a serem mais eficientes e eficazes, logo a pensarem os seus processos internos de forma a procurarem a sua otimização e melhorarem a sua produtividade, com a notória consequência na satisfação do cliente. Para a satisfação do cliente é necessário que as operações dentro do sistema de distribuição, nomeadamente as realizadas no armazém, sejam otimizadas. Esta otimização é atingida quando as encomendas dos clientes estiverem completas e prontas a serem despachadas em tempo útil e todos os processos necessários para o efeito tenham ocorrido no menor espaço de tempo possível e com o mínimo de recursos. O planeamento das operações no armazém tem de determinar o tempo e a ordem das operações bem como os recursos necessários de forma a não acontecerem congestionamentos. A Caetano Parts, uma empresa de revenda de peças de substituição automóvel, identificou um congestionamento na localização de peças que chegavam pela primeira vez ao seu armazém, o que suscitou a necessidade do desenvolvimento de uma ferramenta que permitisse proceder à localização destas peças de uma forma mais expedita, permitindo ganhos significativos de tempo na arrumação das peças e consequentemente no tempo gasto na sua procura/separação e posterior envio para os clientes. A ferramenta desenvolvida consiste num programa em Visual Basic for Applications (VBA) cuja conceção, desenvolvimento e descrição das funcionalidades serão abordados ao longo do trabalho. Os testes realizados ao longo do desenvolvimento validaram o correto funcionamento da ferramenta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho desenvolve uma reflexão sobre a indisciplina na sala de aula, numa escola secundária na cidade da Praia – Cabo Verde. Inicialmente discute-se o conceito de disciplina e indisciplina, considerando as suas diferentes abordagens, bem como os diversos fatores que as promovem. Destaca-se também o enfoque preventivo como estratégia mais adequada para redução da utilização de medidas sancionatórias, concretamente a ordem de saída da sala de aula. Por outro lado, analisa algumas estratégias de intervenção corretiva da indisciplina na sala de aula. Este trabalho procura caraterizar a situação de indisciplina na sala de aula, do 3ºciclo do ensino básico da Escola Secundária Regina Silva, nomeadamente as suas causas e consequências, tipos de incidentes disciplinares e formas de intervenção dos professores com vista a interromper comportamentos indisciplinados. Procura também identificar os comportamentos que motivam a utilização da ordem de saída da sala de aula, por parte dos professores. Finalmente, procura-se elencar um conjunto de estratégias preventivas que podem contribuir para a redução da utilização de medidas disciplinares sancionatórias, enfatizando a necessidade do desenvolvimento de diálogo, de atividades que proporcionam maior aproximação entre professor e aluno e a realização de mais espaços formativos e de debates.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

SUMMARY The herpes simplex virus type 2 (HVS-2) is the most prevalent infection worldwide. It is a cofactor in the acquisition of human immunodeficiency virus (HIV) and the persistence of human papillomavirus (HPV). This study evaluated the prevalence of HSV-2, using the polymerase chain reaction (PCR), and associated factors in patients treated at the Federal University of Rio Grande (FURG) and Basic Health Units (BHU) in Rio Grande, Brazil. The observed prevalence of HSV-2 was 15.6%. Among the 302 women studied, 158 had received assistance in BHU and 144 were treated at FURG. The prevalence of HSV-2 in these groups was 10.8% and 20.8%, respectively, RR 1.9 and p = 0.012. Knowledge about the Pap smear, and the presence of lesions showed no association with HSV-2 infection. Multivariate analysis showed that the variable that most influenced the risk of HSV-2 infection was the presence of HIV infection, with a relative risk of 1.9 and p = 0.04. Discussion: Genital ulcers are an important entry point for HIV, and condom use is an important strategy to reduce transmission of HIV and HSV-2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente tendencia no acesso móvel tem sido potenciada pela tecnologia IEEE 802.11. Contudo, estas redes têm alcance rádio limitado. Para a extensão da sua cobertura é possível recorrer a redes emalhadas sem fios baseadas na tecnologia IEEE 802.11, com vantagem do ponto de vista do custo e da flexibilidade de instalação, face a soluções cabladas. Redes emalhadas sem fios constituídas por nós com apenas uma interface têm escalabilidade reduzida. A principal razão dessa limitação deve-se ao uso do mecanismo de acesso ao meio partilhado Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) em topologias multi-hop. Especificamente, o CSMA/CA não evita o problema do nó escondido levando ao aumento do número de colisões e correspondente degradação de desempenho com impacto direto no throughput e na latência. Com a redução da tecnologia rádio torna-se viável a utilização de múltiplos rádios por nó, sem com isso aumentar significativamente o custo da solução final de comunicações. A utilização de mais do que um rádio por nó de comuniações permite superar os problemas de desempenho inerentes ás redes formadas por nós com apenas um rádio. O objetivo desta tese, passa por desenvolver uma nova solução para redes emalhadas multi-cana, duar-radio, utilizando para isso novos mecanismos que complementam os mecanismos definidos no IEEE 802.11 para o estabelecimento de um Basic Service Set (BSS). A solução é baseada na solução WiFIX, um protocolo de routing para redes emalhadas de interface única e reutiliza os mecanismos já implementados nas redes IEEE 802.11 para difundir métricas que permitam à rede escalar de forma eficaz minimizando o impacto na performance. A rede multi-hop é formada por nós equipados com duas interfaces, organizados numa topologia hierárquica sobre múltiplas relações Access Point (AP) – Station (STA). Os resultados experimentais obtidos mostram a eficácia e o bom desempenho da solução proposta face à solução WiFIX original.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente evolução dos dispositivos contendo circuitos integrados, em especial os FPGAs (Field Programmable Logic Arrays) e atualmente os System on a chip (SoCs) baseados em FPGAs, juntamente com a evolução das ferramentas, tem deixado um espaço entre o lançamento e a produção de materiais didáticos que auxiliem os engenheiros no Co- Projecto de hardware/software a partir dessas tecnologias. Com o intuito de auxiliar na redução desse intervalo temporal, o presente trabalho apresenta o desenvolvimento de documentos (tutoriais) direcionados a duas tecnologias recentes: a ferramenta de desenvolvimento de hardware/software VIVADO; e o SoC Zynq-7000, Z-7010, ambos desenvolvidos pela Xilinx. Os documentos produzidos são baseados num projeto básico totalmente implementado em lógica programável e do mesmo projeto implementado através do processador programável embarcado, para que seja possível avaliar o fluxo de projeto da ferramenta para um projeto totalmente implementado em hardware e o fluxo de projeto para o mesmo projeto implementado numa estrutura de harware/software.