909 resultados para estimador Kernel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A new high throughput and scalable architecture for unified transform coding in H.264/AVC is proposed in this paper. Such flexible structure is capable of computing all the 4x4 and 2x2 transforms for Ultra High Definition Video (UHDV) applications (4320x7680@ 30fps) in real-time and with low hardware cost. These significantly high performance levels were proven with the implementation of several different configurations of the proposed structure using both FPGA and ASIC 90 nm technologies. In addition, such experimental evaluation also demonstrated the high area efficiency of theproposed architecture, which in terms of Data Throughput per Unit of Area (DTUA) is at least 1.5 times more efficient than its more prominent related designs(1).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Avaliar o impacto do plano de amostragem e o efeito da ponderação, em dados provenientes da "Pesquisa Nacional sobre Demografia e Saúde" (PNDS-96). MÉTODOS: Análise de dados secundários, realizada para a amostra do Estado de São Paulo, com 1.355 mulheres entrevistadas. Tomou-se como referência o plano de amostragem da "Pesquisa Nacional por Amostra de Domicílios" (PNAD), com o município como unidade primária de amostragem. O estimador razão e a aproximação de Taylor para a variância foram calculados sobre as unidades primárias de amostragem e sobre diversas modalidades de ponderação. Intervalos de confiança, efeitos do desenho (Deff) e vícios foram os indicadores utilizados para avaliar precisão e validade. RESULTADOS: Para os quatro procedimentos, as diferenças da maior estimativa pontual de prevalência, em relação à menor, não ultrapassaram 10%. Quanto às amplitudes dos intervalos de confiança, as diferenças foram inferiores a 20%. Uso de camisinha e de injetável foram as variáveis que tiveram efeitos do delineamento superiores a 1,5 e vícios superiores a 0,20. CONCLUSÕES: A amostragem por conglomerados teve impacto sobre a precisão das estimativas, em duas das seis variáveis. Quanto à ponderação, não houve grande impacto sobre as estimativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: O conhecimento dos erros de amostragem é necessário à correta interpretação dos resultados de inquéritos domiciliares e à avaliação dos seus planos de amostragem. A composição das amostras de domicílios utilizadas em inquéritos caracteriza situação complexa de estimação. Nesse sentido, realizou-se estudo com o objetivo de avaliar o desempenho de estimadores de variância em inquéritos efetuados em populações urbanas brasileiras. MÉTODOS: A população de referência do estudo constituiu-se de amostra sorteada pela Fundação Sistema Estadual de Análise de Dados Estatísticos, para a realização da Pesquisa de Emprego e Desemprego na Região Metropolitana de São Paulo. Para estimar variâncias foram utilizados: o método de linearização de Taylor e as técnicas de replicação Jackknife e BRR. Repetidas amostras foram retiradas da população de referência utilizando amostragem estratificada, por conglomerados, em dois estágios: setor censitário e domicílio. Três delineamentos foram utilizados e 2.000 amostras foram sorteadas sob cada um deles. Para um estimador razão, foi avaliada a acurácia dos estimadores de variância, por meio do erro quadrático médio, e a cobertura dos intervalos de confiança. RESULTADOS: Os resultados relacionados ao erro quadrático médio relativo dos estimadores foram semelhantes. As razões de vício ficaram em torno de 0,10 para as menores amostras. As coberturas dos intervalos de confiança indicaram que os níveis de confiança observados foram menores que os fixados (95%), ficando em torno de 90% para as menores amostras. CONCLUSÕES: Os estimadores de variância mostraram desempenhos semelhantes quanto à acurácia e cobertura dos intervalos de confiança. Os vícios foram irrelevantes frente às dimensões do erro-padrão. Os níveis de confiança reais foram menores que os níveis nominais da distribuição normal, mas as alterações não impedem que estimativas intervalares sejam feitas com razoável confiança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chronic Liver Disease is a progressive, most of the time asymptomatic, and potentially fatal disease. In this paper, a semi-automatic procedure to stage this disease is proposed based on ultrasound liver images, clinical and laboratorial data. In the core of the algorithm two classifiers are used: a k nearest neighbor and a Support Vector Machine, with different kernels. The classifiers were trained with the proposed multi-modal feature set and the results obtained were compared with the laboratorial and clinical feature set. The results showed that using ultrasound based features, in association with laboratorial and clinical features, improve the classification accuracy. The support vector machine, polynomial kernel, outperformed the others classifiers in every class studied. For the Normal class we achieved 100% accuracy, for the chronic hepatitis with cirrhosis 73.08%, for compensated cirrhosis 59.26% and for decompensated cirrhosis 91.67%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work the identification and diagnosis of various stages of chronic liver disease is addressed. The classification results of a support vector machine, a decision tree and a k-nearest neighbor classifier are compared. Ultrasound image intensity and textural features are jointly used with clinical and laboratorial data in the staging process. The classifiers training is performed by using a population of 97 patients at six different stages of chronic liver disease and a leave-one-out cross-validation strategy. The best results are obtained using the support vector machine with a radial-basis kernel, with 73.20% of overall accuracy. The good performance of the method is a promising indicator that it can be used, in a non invasive way, to provide reliable information about the chronic liver disease staging.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Projeto para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Analisar a ocorrência espacial e temporal da dengue e sua associação com a heterogeneidade de características do ambiente urbano. MÉTODOS: Foram georreferenciados 1.212 casos de dengue registrados no Sistema de Informação de Agravos de Notificação entre 1998 e 2006, no município de Niterói, RJ, segundo setores censitários. Os setores foram classificados em áreas homogêneas para a ocorrência da doença: favela, estaleiro e urbano. Os casos foram agrupados em cinco períodos: dois interepidêmicos 1998-2000 e 2003-2005; três epidêmicos 2001, 2002 e 2006 e analisados por meio de operações entre camadas em ambiente sistema de informação geográfica. Para identificação de conglomerados com maior intensidade de casos, utilizou-se o método de kernel. O método de varredura espacial de Kulldorff foi usado para confirmação estatística desses clusters. RESULTADOS: Do total de casos, 57% eram do sexo feminino. As faixas etárias com maior concentração de casos foram de 20-29 anos (20,5%) e de 30-39 anos (17,7%). O setor favela morro apresentou somente 11% dos domicílios atendidos por serviço de coleta de lixo, o maior percentual de não alfabetizados (8,7%) e de chefes de família com rendimentos menores de 1 salário mínimo (29,5%). Os casos permaneceram nos setores denominados favelas. No primeiro ano epidêmico e nos períodos interepidêmicos o maior número de casos estava situado nos setores favelas morro e favela plana; no segundo e terceiro ano de epidemia, situavam-se no setor favela plana. CONCLUSÕES: A parcela economicamente ativa foi a mais atingida na área de estudo. Os setores censitários mostram heterogeneidade espacial em relação às condições de vida e dentro de alguns setores, há diferenciais na distribuição espacial e temporal do risco de ocorrência da dengue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Estimar a sobrevida e os fatores prognósticos clínicos (pré-tratamento) de pacientes com adenocarcinoma de próstata localizado. MÉTODOS: Coorte hospitalar composta por 258 pacientes do Instituto Nacional de Câncer, Rio de Janeiro, RJ, de 1990 a 1999. As funções de sobrevida em cinco e dez anos foram calculadas empregando-se o estimador de Kaplan-Meier, tomando-se como início da observação a data do diagnóstico histológico e como eventos os óbitos por câncer de próstata. Para avaliação dos fatores prognósticos pré-tratamento foram calculadas hazard ratios (HR) e intervalos com 95% de confiança, seguindo-se o modelo de riscos proporcionais de Cox. O pressuposto desses riscos foi avaliado pela análise dos resíduos de Schoenfeld e a influência de valores aberrantes pelos resíduos martingale e escore. RESULTADOS: Dos 258 pacientes estudados, 46 foram a óbito durante o período de seguimento.A sobrevida específica por câncer de próstata foi de 88% em cinco anos e de 71% em dez. A classificação de Gleason maior que 6, PSA maior que 40ng/ml, estádio B2 e cor da pele branca foram marcadores independentes de pior prognóstico. CONCLUSÕES: A classificação de Gleason, o toque retal e o valor do PSA possuem grande poder preditivo e devem ser utilizados na estratificação de risco pré-tratamento dos pacientes com câncer de próstata localizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we present some of the fault tolerance management mechanisms being implemented in the Multi-μ architecture, namely its support for replica non-determinism. In this architecture, fault tolerance is achieved by node active replication, with software based replica management and fault tolerance transparent algorithms. A software layer implemented between the application and the real-time kernel, the Fault Tolerance Manager (FTManager), is the responsible for the transparent incorporation of the fault tolerance mechanisms The active replication model can be implemented either imposing replica determinism or keeping replica consistency at critical points, by means of interactive agreement mechanisms. One of the Multi-μ architecture goals is to identify such critical points, relieving the underlying system from performing the interactive agreement in every Ada dispatching point.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Analisar a consistência entre valores de altura e peso obtidos por mensuração direta e por relato em inquéritos nacionais contemporâneos. MÉTODOS: Selecionamos o grupo de 20 a 39 anos na Pesquisa de Orçamentos Familiares (POF) e do sistema de Vigilância de Fatores de Risco e Proteção para Doenças Crônicas por Inquérito Telefônico (Vigitel) de 2008 e 2009. Os inquéritos foram pareados por sexo e idade. A inferência sobre a comparação entre valores de altura e peso medidos padronizadamente (POF) e autodeclarados (Vigitel) foi feita com teste t de student e pelo estimador Spearman (ρ). A consistência entre índices e indicadores antropométricos nos dois inquéritos foi estimada pelos estimadores de Lin (Φ) e Pearson (r). RESULTADOS: Peso e altura referidos foram maiores que os medidos de forma padronizada. A correlação dos valores médios de altura nos dois inquéritos foi de ρ = 0,31 em mulheres e ρ = 0,62 em homens. A associação foi de ρ = 0,86 e ρ = 0,88, respectivamente, para peso. O índice de massa corporal mostrou forte correlação e concordância com aproximadamente 0,90 para os dois estimadores em ambos os sexos. A concordância entre diagnóstico de obesidade a partir de valores dos dois inquéritos medidos e autodeclarados foi Φ = 0,89 em homens e Φ = 0,91 em mulheres. CONCLUSÕES: Altura e peso declarados seguem o mesmo viés em relação àqueles mensurados padronizadamente e eliminam distorções nos índices e indicadores estimados nos dois inquéritos. Os valores declarados da antropometria mostram boas perspectivas de uso em outras análises envolvendo determinantes de saúde e nutrição.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

High-level parallel languages offer a simple way for application programmers to specify parallelism in a form that easily scales with problem size, leaving the scheduling of the tasks onto processors to be performed at runtime. Therefore, if the underlying system cannot efficiently execute those applications on the available cores, the benefits will be lost. In this paper, we consider how to schedule highly heterogenous parallel applications that require real-time performance guarantees on multicore processors. The paper proposes a novel scheduling approach that combines the global Earliest Deadline First (EDF) scheduler with a priority-aware work-stealing load balancing scheme, which enables parallel realtime tasks to be executed on more than one processor at a given time instant. Experimental results demonstrate the better scalability and lower scheduling overhead of the proposed approach comparatively to an existing real-time deadline-oriented scheduling class for the Linux kernel.