51 resultados para Armazenamento de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

principalmente pelo baixo grau de complexidade de especialização, escassez de caracteres distintivos e a elevada plasticidade morfológica. A partir do século XIX emergiram classificações mais robustas. O que conhecemos hoje como Ordem Poecilosclerida só começou a ser delineado pela iniciativa de Zittel (1878) com o reconhecimento de Monaxonida, ou seja, reconhecimento de um padrão de simetria nas categorias de espículas. Ridley e Dendy (1887) apresentaram uma nova classificação para as esponjas do grupo Monaxonida utilizada por Topsent (1894) para criação da Familia Poeciloscleridae, eregida a ordem por este último autor em 1928, enfatizando a presença das quelas como microscleras. Posteriormente, van Soest (1984) e Bergquist e Fromont (1988) empreenderam discussões dessa classificação com base em uma perspectiva filogenética. Uma classificação robusta e de consenso só foi conseguida a partir dos trabalhos de Hajdu e colaboradores (1994a, 1994b) e Hajdu (1994, 1995), com o estabelecimento das Subordens: Mycalina, Myxillina e Microcionina. Apesar disso, as relações internas das famílias da Subordem Mycalina permaneciam com dúvidas, principalmente no tocante à inclusão de Podospongiidae, Isodictyidae, e a relação de Poecilosclerida com a Ordem Haplosclerida. Neste trabalho foi proposto a revisão da classificação da Subordem Mycalina com base em dados morfológicos e moleculares. Foram feitas análises filogenéticas em três níveis taxonômicos, espécie, gênero e família, com base em dados morfológicos. Além disso, foi feita uma análise filogenética molecular utilizando sequências parciais da subunidade maior do RNA ribossomal (LSU do RNAr). As amostras de Mycalina foram amplificadas via PCR e posteriormente sequenciadas. Com base nestes resultados foi concluído que: as Familias Cladorhizidae, Guitarridae, Mycalidae e Hamacanthidae são monofiléticas. Para esta última foi confirmada a série de transformação sigmancistra > cirtancistra > diâncistra > clavidisco. A posição da Familia Podospongiidae dentro de Mycalina está bem corroborada, porém, precisa ser melhor estudada com dados moleculares para determinar, ou não, o seu monofiletismo. A Familia Esperiopsidae precisa ser melhor estudada com base em dados morfológicos e o gênero Amphilectus precisa ser revisado, provavelmente uma parte deste estaria melhor alocado em Haplosclerida junto com Isodictyidae. A Familia Desmacellidae não é monofilética, bem como Biemna e Neofibularia, provavelmente, não são Poecilosclerida e deveriam ser transferidas para uma posição próxima de Tetractinellida. Desmacella provavelmente é uma Mycalina com posição basal na Subordem. Os demais gêneros precisam ser estudados com base em dados moleculares. A Ordem Haplosclerida provavelmente é o grupo irmão de Poecilosclerida e a série de transformação sigmas > quelas foi confirmada com base em dados morfológicos e moleculares. A Subordem Mycalina não é monofilética como definida em Hajdu e van Soest (2002a). Palavras-chave: Sistemática. Porifera. Evolução.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal desta dissertação é analisar os impactos da abertura comercial vista no Brasil no início da década de 1990 entre 1990 a 1996 na margem de lucro das indústrias de transformação passando por três padrões monetários diferentes (cruzeiro, cruzeiro real e real). A especificação e metodologia adotadas no trabalho são as de Goldar e Aggawal (2004), que fazem uma análise de dados em painel para efeitos fixos e randômicos para as indústrias de transformação indianas como um todo e, posteriormente, aplicando os mesmos testes separando os vinte e oito setores da indústria brasileira de transformação em setores de bens de capital e intermediários no primeiro grupo e bens de capital no segundo. Este trabalho ainda inclui esta metodologia aplicando, além das duas já citadas, o teste de mínimos quadrados ordinários (MQO) para permitir uma melhor análise com três testes diferentes antes e depois de separar os setores por meio de variáveis explicativas como barreiras à importação, concentração industrial, participação salarial, produtividade do trabalho, representatividade setorial e variação na taxa de crescimento da produção do setor entre os anos. Conclui-se que o aumento observado na margem de lucro foi impactado significativamente pelas variáveis expostas acima e estes resultados são importantes para que possamos auferir de que forma impactaram positivamente ou contribuíram negativamente na margem de lucro auferida pela indústria brasileira de transformação entre 1990 e 1996.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo a análise da eficiência técnica das operadoras de planos de saúde vis-à-vis a criação da Agência Nacional de Saúde Suplementar - ANS, no período de 2003 a 2008. Para tanto, foi utilizada a Análise Envoltória de Dados nos dados da saúde suplementar para geração das medidas de eficiência das operadoras, agrupadas em cinco modalidades: autogestão, cooperativa médica, filantropia, medicina de grupo e seguradora. Foram propostas quatro diferentes abordagens que pretenderam visualizar as performances das operadoras nas questões econômico-financeiras e assistenciais, bem como a relação do setor de saúde suplementar com o Sistema Único de Saúde - SUS. Além disso, os dados foram desagregados em grandes regiões brasileiras proporcionando a observação das diferenças regionais. Observou-se que existem grandes diferenças entre modalidades e também entre regiões. A comparação entre as medidas de eficiência nas quatro diferentes abordagens e a evolução, ano a ano, dos normativos da ANS, ainda necessita de uma análise mais detalhada, mas indica, ainda que primariamente, que as modalidades tiveram diferentes reações à regulação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos potenciais são conhecidos como uma ferramenta útil para estudos regionais. Na Ibéria Ocidental, a gravimetria e a magnetometria podem ser utilizadas para auxiliar no entendimento de algumas questões sobre a estruturação tectônica offshore. Nesta região, tanto as estruturas geradas pela quebra continental, quanto às herdadas do embasamento variscano, tem uma importante contribuição para a resposta geofísica regional observada com estes métodos. Este trabalho tem como objetivo correlacionar as feições geofísicas observadas com alguns modelos geológicos do arcabouço tectônico da Ibéria Ocidental já publicados na literatura. Mapas filtrados foram usados para auxiliar no reconhecimento de diferentes assinaturas geofísicas, os quais foram calculados a partir dos mapas de gravidade Bouguer e do campo magnético total tais como o gradiente horizontal total, derivada tilt, derivada vertical, e integral vertical. O domínio crustal continental foi definido a partir da interpretação dos dados gravimétricos, utilizando gradiente de gravidade horizontal total da Anomalia Bouguer. Os dados magnéticos, originais e filtrados, foram utilizados para identificar mais três domínios regionais offshore, que sugerem a existência de três tipos de crosta não-siálica. Dois deles são propostos como domínios de transição. A região da crosta de transição mais próxima do continente tem uma fraca resposta regional magnética, e a porção mais distal é um domínio de anomalia de alta amplitude, semelhante à resposta magnética oceânica. O limite crustal oceânico não pôde ser confirmado, mas um terceiro domínio offshore, a oeste da isócrona C34, poderia ser considerado como crosta oceânica, devido ao padrão magnético que apresenta. Alguns lineamentos do embasamento foram indicados na crosta continental offshore. As feições gravimétricas e magnéticas interpretadas coincidem, em termos de direção e posição, com zonas de sutura variscanas, mapeados em terra. Assim, esses contatos podem corresponder à continuação offshore destas feições paleozoicas, como o contato entre as zonas de Ossa Morena-Zona Centro-Ibérica. Nesta interpretação, sugere-se que a crosta continental offshore pode ser composta por unidades do Sudoeste da Península Ibérica. Isto permite considerar que a Falha de Porto-Tomar pertence a uma faixa de deformação strike-slip, onde parte das bacias mesozoicas da margem continental está localizada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A discussão jurídica versa acerca da proteção ou não dos dados clínicos e informações não divulgadas Data Package, obtidos através de pesquisas clinicas, a partir do desenvolvimento de um novo medicamento. È importante realizar-se uma investigação prévia para descobrir se o novo medicamento a ser comercializado, possui efeitos benéficos ou adversos, que possam afetar os seres humanos, garantindo assim a eficácia e a segurança de sua utilização. O dossiê contendo os dados clínicos é submetido à Agência Nacional de Vigilância Sanitária que, no uso de sua atribuição específica, e em função da avaliação do cumprimento de caráter jurídico-administrativo e técnico-científico relacionado com a eficácia, segurança e qualidade do medicamento conforme a Lei 6360/76 e o Decreto 79.094/77 determina o registro sanitário. A tese defendida pelas sociedades farmacêuticas de pesquisa é a de que seria vedado à ANVISA deferir registros de medicamentos genéricos e similares de mesmo princípio ativo, com base nas pesquisas clinicas realizada, enquanto vigente o período de exclusividade, com fundamento no artigo 5, inciso XXIX da Constituição Federal, artigos 39.1, 39.2, 39.3 do Acordo sobre Aspectos dos Direitos de Propriedade Intelectual Acordo TRIPS, artigo 195, XIV da Lei n 9.279/96 (Lei da Propriedade Industrial), artigo 421, 884, 885 e 886 do CC, artigo 37, caput, da CF e artigo 2, da Lei 9.784/99 e aplicação analógica da Lei 10.603/2002. A ANVISA ao permitir aos fabricantes dos medicamentos genéricos e similares a utilização do pacote de dados clínicos, fornecido pelo titular do medicamento de referencia, estaria promovendo a concorrência desleal e parasitária, ao permitir que as versões genéricas e similares, ingressem no mercado, sob custos de produção e comerciais substancialmente menores, do que os praticadas pelos medicamentos de referencia. Este argumento tem fulcro na norma do artigo 39.3 do Acordo TRIPS firmado entre os membros da Organização Mundial do Comércio OMC, em 1994, no qual o Brasil é signatário, e que se comprometeram a adotar providências no sentido de manter em sigilo e protegidos contra o uso comercial desleal os dados clínicos relativos à pesquisa clínica, necessários à aprovação da comercialização de produtos farmacêuticos. A divulgação, exploração ou a utilização dos dados clínicos, sem a autorização do respectivo titular, o qual demandou recursos materiais e humanos consideráveis e desde que estas informações tenham sido apresentadas a entidades governamentais como condição para aprovação da comercialização de um medicamento, devem ser protegidas. Os Estados membros da OMC e subscritores do acordo internacional devem assegurar que os concorrentes não tenham acesso às informações recebidas pelo ente estatal, que não as explorarem ou delas possam aferir indevidamente tanto direta quanto indiretamente de vantagens que as beneficiem do conhecimento técnico-cientifico, investimentos e esforços realizados pelo titular daquela pesquisa clínica. Dentro deste cenário, faz-se necessário que o Estado produza um marco regulatório capaz de prover uma segurança jurídica, que permita as sociedades farmacêuticas disponibilizar elevado investimento, viabilizando a realização de pesquisa clinica e introdução de novos medicamentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os painéis de gráficos estatísticos conhecidos como dashboards são utilizados comumente naárea de Business Intelligence (BI) para a visualização de grandes sistemas organizados de dados. A presente dissertação propõe embasar o projeto de dashboards pelas teorias de Jacques Bertin, formuladas nas obras Sémiologie Graphique e La Graphique et le Traitement Graphique de linformation. Considerando este referencial, e ainda parâmetros do design de informação e da visualização de dados, foram desenvolvidos dashboards que apresentam dados sobre a política de reserva de vagas da Universidade do Estado do Rio de Janeiro, sistematizados pelo projeto de BI dessa instituição. O objetivo foi não apenas o de atender aos requisitos convencionais de um dashboard, mas sobretudo o de apresentar outras perspectivas informativas. Nesse sentido, investigam-se as especificidades dos métodos de Bertin e sua expansão para o domínio dos sistemas interativos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Domínio Costeiro integra o Terreno Oriental, no segmento central da Faixa Ribeira e abriga rochas ortoderivadas com afinidade de arcos magmáticos (Complexo Rio Negro, ca. 790-605 Ma). Os ortognaisses deste complexo possuem clara assinatura para ambientes de zonas de subducção, encaixados em rochas metassedimentares de alto grau, integrantes do Grupo São Fidélis. O conjunto acima descrito é ainda intrudido por várias de rochas granitóides sin a tardi- colisionais, relacionadas às várias etapas de desenvolvimento da Orogenia Brasiliana neste setor do orógeno (ca. 605-480 Ma). Idades U-Pb (LA-ICP-MS) em zircões detríticos de rochas quartzíticas do Grupo São Fidélis indicam um amplo espectro com modas significativas no Mesoproterozóico e Paleoproterozoico, além de zircões do Neoproterozóico e do Arqueano. Sinteticamente os resultados obtidos foram: a) Idades concordantes Arqueanas com ca. 2,85, 2,84 e 2,70 Ga; b) zircões Paleoproterozóicos (ca. 2,3 a 1,7 Ga), com máxima concentração em torno de ca. 2,2 Ga, representando a segunda maior moda; c) Idades Mesoproterozóicas (ca. 1,3 -1,1 Ga) com idades de espectro dominantes, com moda em ca. 1,5 Ga; d) Zircões Neoproterozóicos com idades de ca. 0,95-90 Ga e 0,86-0,61 Ga. Em vários grãos detríticos observou-se sobrecrescimento metamórfico em ca. 602-570 Ma. Dados U-Pb (LA-ICP-MS) obtidos para zircões para Ortognaisse Rio Grande e o Biotita Ortognaisse, intrudidos na unidade basal do Grupo São Fidélis, apresentam idades em ca. 620 Ma e são equivalentes ao período pré-colisional de geração de rochas do arco magmático Rio Negro. Combinando estas idades com os núcleos de zircões detríticos mais jovens, com assinatura do Arco Rio Negro em ca. 613 Ma, pode-se definir o intervalo máximo de sedimentação da unidade superior do Grupo São Fidélis no Neoproterozóico. Cristais de monazitas selecionadas para análise U-Pb (ID-TIMS) apresentam relações com os principais episódios tectono-metamórficos da Faixa Ribeira. Dois cristais de uma amostra quartzítica e dois do ortognaisse Rio Grande alinham-se em uma discórdia que gerou idade de 603 Ma, referente ao metamorfismo progressivo descrito na literatura, durante a Orogenia Brasiliana. Enquanto a idade concordante obtida em 535 Ma, adquirida em uma amostra quartzítica, é correspontente ao último metamorfismo colisional da Faixa Ribeira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A injeção da água do mar nos campos marítimos (offshore), processo este conhecido como recuperação secundária de petróleo, gera muitos resíduos e efluentes. Dentre estes, pode-se destacar a água produzida, que consiste de água de formação, água naturalmente presente na formação geológica do reservatório de petróleo, e água de injeção, aquela normalmente injetada no reservatório para aumento de produção. Sete tanques de armazenamento de água/óleo de um terminal foram monitorados quanto à presença de micro-organismos e teores de sulfato, sulfeto, pH e condutividade. Particularmente, as bactérias redutoras de sulfato (BRS), que agem às expensas da atividade de outras espécies, reduzindo sulfato à sulfeto, constituindo-se num problema-chave. Os tanques de óleo codificados como Verde, Ciano, Roxo, Cinza, Vermelho, Amarelo e Azul, apresentaram comportamentos distintos quanto aos parâmetros microbiológicos e físico-químicos. Após este monitoramento, de acordo com valores referência adotados, e levando-se em conta como principais parâmetros classificatórios concentrações de BRS, bactérias anaeróbias totais e sulfeto, os dois tanques considerados mais limpos do monitoramento foram os tanques roxo e ciano. Analogamente, por apresentarem os piores desempenhos frente aos três principais parâmetros, os tanques amarelo e cinza foram considerados os mais sujos de todo o monitoramento. Após esta segregação, esses três principais parâmetros, mais a concentração de sulfato, foram inter-relacionados a fim de se corroborar esta classificação. Foi possível observar que o sulfeto instantâneo não foi o parâmetro mais adequado para se avaliar o potencial metabólico de uma amostra. Por este motivo, foram verificados os perfis metabólicos das BRS presentes nas amostras, confirmando a segregação dos tanques, baseada em parâmetros em batelada

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A detecção de clusters de doenças é um desafio para a saúde pública e principalmente para elucidação da ocorrência de surtos, visto que surtos epidemiológicos são usualmente definidos como aglomeração de casos. As revisões da literatura disponíveis sobre a indicação de qual técnica de análise espacial (TAE) é apropriada para essa tarega se limitam a indicar a escolha das técnicas considerando os tipos de dados, o tipo de cluster e a medida da doença. São raras as diretrizes que sugerem o uso de TAE em investigações de surtos . É um estudo metodológico exploratório, com avaliação de métodos em duas etapas: (i) uma revisão narrativa do objeto da pesquisa e (ii) descrição e revisão crítica da aplicação das técnicas selecionadas na revisão narrativa. As técnicas consideradas de maior importância para investigação de surtos forma revisadas e descritas, incluindo técnicas dos tipos global, loca e focal. treze técnicas foram submetidas à revisão crítica e 14 perguntas relevantes para investigação de surtos foram apreciadas. A análise da capacidade de responta das técnicas selecionadas baseou-se nas características das técnicas e natureza das perguntas da investigação de surtos, buscando-se a equivalência da responta dada pelas técnicas de análise espacial em relação à responta que se pretende alcançar na pergunta da investigação. As técnicas forma classificadas quanto a quantidade de informação que elas fornecem para que a perunca seja respondida, indicando assim, a sua capacidade de responder , ou de responsividade. concluiu-se que as TAE podem contribuir para a investigação de surtos, uma vez que são capazes de responder algumas das perguntas de uma investigação. Todas as catorze perguntas estudadas forma respondidas em algum nível pelas treze técnicas revisadas. Técnicas espaço-temporais e puramente espaciais locais respondem ao maior número de perguntas. Já as espaço-temporais apresentam maior nível de responsividade às perguntas. As técnicas com menor número de perguntas respondidas forma as puramente espaciais focais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.