998 resultados para Análise Envoltória de Dados
Resumo:
OBJETIVO: Rever a apresentação dos casos de hipoglicemia hiperinsulinêmica da infância (HHI), tratamento e histologia nos serviços de endocrinologia pediátrica no Brasil. MATERIAIS E MÉTODO: Os serviços receberam protocolo para resgatar dados de nascimento, resultados laboratoriais, tipo de tratamento instituído, necessidade de pancreatectomia e histologia. RESULTADOS: Vinte e cinco casos de HHI de seis centros foram resgatados, 15 do sexo masculino, 3/25 nascidos de parto normal. A mediana de idade do diagnóstico foi 10,3 dias. As dosagens de glicose e insulina na amostra sérica crítica apresentaram mediana de 24,7 mg/dL e 26,3 UI/dL. A velocidade de infusão de glicose endovenosa foi superior a 10 mg/kg/min em todos os casos (M:19,1). Diazóxido foi utilizado em 15/25, octreotide em 10, corticoide em 8, hormônio de crescimento em 3, nifedipina em 2 e glucagon em 1. Quarenta por cento (10/25) foram pancreatectomizados, nos quais a análise histológica revelou a forma difusa da patologia. CONCLUSÃO: Primeira análise crítica de uma amostra brasileira de portadores de HHI congênita. Arq Bras Endocrinol Metab. 2012;56(9):666-71
Resumo:
OBJETIVOS: Avaliar a concordância entre as técnicas de microscopia de polarização e microscopia confocal na avaliação do fuso meiótico de oócitos humanos maturados in vivo. MÉTODOS: Estudo prospectivo que avaliou oócitos com o primeiro corpúsculo polar extruído obtidos de mulheres inférteis submetidas à estimulação ovariana para realização de injeção intracitoplasmática de espermatozoide. Os oócitos com o primeiro corpúsculo polar extruído foram avaliados por meio da microscopia de polarização e, imediatamente após, foram fixados e corados para avaliação dos microtúbulos e cromatina pela microscopia confocal de alto desempenho. Foram comparadas as técnicas de microscopia de polarização e confocal, de acordo com a visualização ou não do fuso meiótico pela microscopia de polarização e a presença ou não de anomalias meióticas à análise pela microscopia confocal. Foram calculados os intervalos de confiança, o índice de Kappa e a concordância entre as metodologias, considerando a análise da microscopia de imunofluorescência como padrão-ouro para avaliação de normalidade do fuso e distribuição cromossômica oocitária. RESULTADOS: Observou-se que 72,7% dos oócitos em metáfase II com fuso celular não visível à polarização apresentaram anormalidades meióticas à análise confocal e que 55,6% dos oócitos em metáfase II com fuso celular visível à polarização apresentaram-se como oócitos anormais à análise confocal. Somente 44,4% dos oócitos com fuso celular visível à polarização apresentaram-se como normais à análise confocal. A concordância entre os métodos foi de 51,1% (Kappa: 0,11; IC95% -0,0958 - 0,319). CONCLUSÕES: A baixa concordância entre a microscopia de polarização e a confocal na avaliação do fuso meiótico oocitário sugere que a visualização do fuso meiótico de oócitos humanos em metáfase II pela microscopia de polarização tem limitado o valor preditivo de normalidade meiótica oocitária.
Resumo:
Os elaboradores de políticas educacionais têm dado enfoque às políticas de "responsabilização" como forma de melhorar a qualidade da educação. Com base no desempenho dos alunos em testes padronizados, constroem-se medidas para classificação das escolas e estabelecem-se metas para guiar políticas de incentivo, assistência e sanção às escolas, como no caso do Chile e dos EUA. Em alguns casos, pode ser difícil obter rankings confiáveis, devido à elevada estratificação social no sistema educacional e ao problema de reversão para a média, que causam ruído nas estimativas. Neste trabalho foram analisadas diferentes medidas utilizadas para se construir rankings de escolas a partir das avaliações feitas pelo SAEB na 4ª série do Ensino Fundamental. Uma das medidas analisadas parece atender aos requisitos de ser estável e, ao mesmo tempo, não refletir principalmente o status socioeconômico dos alunos.
Resumo:
Modelos de apreçamento de ativos têm sido um tema sob constante investigação em finanças. Desde o capital asset pricing model (CAPM) proposto por Sharpe (1964), tais modelos relacionam, geralmente de maneira linear, a taxa de retorno esperada de um ativo ou carteira de ativos com fatores de risco sistêmico. Esta pesquisa apresenta um teste de um modelo de apreçamento, com dados brasileiros, introduzindo em sua formulação fatores de risco baseados em comomentos estatísticos. O modelo proposto é uma extensão do CAPM original acrescido da coassimetria e da cocurtose entre as taxas de retorno das ações das empresas que compõem a amostra e as taxas de retorno da carteira de mercado. Os efeitos de outras variáveis, como o valor de mercado sobre valor contábil, a alavancagem financeira e um índice de negociabilidade em bolsa, serviram de variáveis de controle. A amostra foi composta de 179 empresas brasileiras não financeiras negociadas na BM&FBovespa e com dados disponíveis entre os anos de 2003 a 2007. A metodologia consistiu em calcular os momentos sistêmicos anuais a partir de taxas de retornos semanais e em seguida testá-los em um modelo de apreçamento, a fim de verificar se há um prêmio pelo risco associado a cada uma dessas medidas de risco. Foi empregada a técnica de análise de dados em painel, estimada pelo método dos momentos generalizado (GMM). O emprego do GMM visa lidar com potenciais problemas de determinação simultânea e endogeneidade nos dados, evitando a ocorrência de viés nas estimações. Os resultados das estimações mostram que a relação das taxas de retorno dos ativos com a covariância e a cocurtose são estatisticamente significantes. Os resultados se mostraram robustos a especificações alternativas do modelo. O artigo contribui para a literatura por apresentar evidências empíricas brasileiras de que há um prêmio pelo risco associado aos momentos sistêmicos.
Resumo:
Em virtude de uma elevada expectativa de vida mundial, faz-se crescente a probabilidade de ocorrer acidentes naturais e traumas físicos no cotidiano, o que ocasiona um aumento na demanda por reabilitação. A terapia física, sob o paradigma da reabilitação robótica com serious games, oferece maior motivação e engajamento do paciente ao tratamento, cujo emprego foi recomendado pela American Heart Association (AHA), apontando a mais alta avaliação (Level A) para pacientes internados e ambulatoriais. No entanto, o potencial de análise dos dados coletados pelos dispositivos robóticos envolvidos é pouco explorado, deixando de extrair informações que podem ser de grande valia para os tratamentos. O foco deste trabalho consiste na aplicação de técnicas para descoberta de conhecimento, classificando o desempenho de pacientes diagnosticados com hemiparesia crônica. Os pacientes foram inseridos em um ambiente de reabilitação robótica, fazendo uso do InMotion ARM, um dispositivo robótico para reabilitação de membros superiores e coleta dos dados de desempenho. Foi aplicado sobre os dados um roteiro para descoberta de conhecimento em bases de dados, desempenhando pré-processamento, transformação (extração de características) e então a mineração de dados a partir de algoritmos de aprendizado de máquina. A estratégia do presente trabalho culminou em uma classificação de padrões com a capacidade de distinguir lados hemiparéticos sob uma precisão de 94%, havendo oito atributos alimentando a entrada do mecanismo obtido. Interpretando esta coleção de atributos, foi observado que dados de força são mais significativos, os quais abrangem metade da composição de uma amostra.
Resumo:
Trabalho apresentado no III Simpósio Internacional LAVITS: Vigilância, Tecnopolíticas, Territórios 13 à 15 de Maio, 2015. Rio de Janeiro, Brasil
Resumo:
In the shallow continental shelf in Northeastern Rio Grande do Norte - Brazil, important underwater geomorphological features can be found 6km from the coastline. They are coral reefs, locally known as “parrachos”. The present study aims to characterize and analyze the geomorphological feature as well as the ones of the benthic surface, and the distribution of biogenic sediments found in parrachos at Rio do Fogo and associated shallow platforms, by using remote sensing products and in situ data collections. This was made possible due to sedimentological, bathymetric and geomorphological maps elaborated from composite bands of images from the satellite sensors ETM+/Landsat-7, OLI/Landsat-8, MS/GeoEye and PAN/WordView-1, and analysis of bottom sediments samples. These maps were analyzed, integrally interpreted and validated in fieldwork, thus permitting the generation of a new geomorphological zoning of the shallow shelf in study and a geoenvironmental map of the Parrachos in Rio do Fogo. The images used were subject to Digital Image Processing techniques. All obtained data and information were stored in a Geographic Information System (GIS) and can become available to the scientific community. This shallow platform has a carbonate bottom composed mostly by algae. Collected and analyzed sediment samples can be classified as biogenic carbonatic sands, as they are composed 75% by calcareous algae, according to the found samples. The most abundant classes are green algae, red algae, nonbiogenic sediments (mineral grains), ancient algae and molluscs. At the parrachos the following was mapped: Barreta Channel, intertidal reefs, submerged reefs, the spur and grooves, the pools, the sandy bank, the bank of algae, sea grass, submerged roads and Rio do Fogo Channel. This work presents new information about geomorphology and evolution in the study area, and will be guiding future decision making in the handling and environmental management of the region
Resumo:
A fragilidade brasileira quanto à competitividade turística é um fato observável nos dados da Organização Mundial do Turismo. O Brasil caiu em 2011, da 45ª para a 52ª posição, apesar de liderar no atributo recursos naturais e estar colocado na 23° em recursos culturais. Assim, grandes interesses e esforços têm sido direcionados para o estudo da competitividade dos produtos e destinos turísticos. O destino turístico é caracterizado por um conjunto complexo e articulado de fatores tangíveis e intangíveis, apresentando alta complexidade, dados de elevada dimensionalidade, não linearidade e comportamento dinâmico, tornando-se difícil a modelagem desses processos por meio de abordagens baseadas em técnicas estatísticas clássicas. Esta tese investigou modelos de equações estruturais e seus algoritmos, aplicados nesta área, analisando o ciclo completo de análise de dados, em um processo confirmatório no desenvolvimento e avaliação de um modelo holístico da satisfação do turista; na validação da estrutura do modelo de medida e do modelo estrutural, por meio de testes de invariância de múltiplos grupos; na análise comparativa dos métodos de estimação MLE, GLS e ULS para a modelagem da satisfação e na realização de segmentação de mercado no setor de destino turístico utilizando mapas auto-organizáveis de Kohonen e sua validação com modelagem de equações estruturais. Aplicações foram feitas em análises de dados no setor de turismo, principal indústria de serviços do Estado do Rio Grande do Norte, tendo sido, teoricamente desenvolvidos e testados empiricamente, modelos de equações estruturais em padrões comportamentais de destino turístico. Os resultados do estudo empírico se basearam em pesquisas com a técnica de amostragem aleatória sistemática, efetuadas em Natal-RN, entre Janeiro e Março de 2013 e forneceram evidências sustentáveis de que o modelo teórico proposto é satisfatório, com elevada capacidade explicativa e preditiva, sendo a satisfação o antecedente mais importante da lealdade no destino. Além disso, a satisfação é mediadora entre a geração da motivação da viagem e a lealdade do destino e que os turistas buscam primeiro à satisfação com a qualidade dos serviços de turismo e, posteriormente, com os aspectos que influenciam a lealdade. Contribuições acadêmicas e gerenciais são mostradas e sugestões de estudo são dadas para trabalhos futuros.
Resumo:
This research aims to set whether is possible to build spatial patterns over oil fields using DFA (Detrended Fluctuation Analysis) of the following well logs: sonic, density, porosity, resistivity and gamma ray. It was employed in the analysis a set of 54 well logs from the oil field of Campos dos Namorados, RJ, Brazil. To check for spatial correlation, it was employed the Mantel test between the matrix of geographic distance and the matrix of the difference of DFA exponents of the well logs. The null hypothesis assumes the absence of spatial structures that means no correlation between the matrix of Euclidean distance and the matrix of DFA differences. Our analysis indicate that the sonic (p=0.18) and the density (p=0.26) were the profiles that show tendency to correlation, or weak correlation. A complementary analysis using contour plot also has suggested that the sonic and the density are the most suitable with geophysical quantities for the construction of spatial structures corroborating the results of Mantel test
Resumo:
The great amount of data generated as the result of the automation and process supervision in industry implies in two problems: a big demand of storage in discs and the difficulty in streaming this data through a telecommunications link. The lossy data compression algorithms were born in the 90’s with the goal of solving these problems and, by consequence, industries started to use those algorithms in industrial supervision systems to compress data in real time. These algorithms were projected to eliminate redundant and undesired information in a efficient and simple way. However, those algorithms parameters must be set for each process variable, becoming impracticable to configure this parameters for each variable in case of systems that monitor thousands of them. In that context, this paper propose the algorithm Adaptive Swinging Door Trending that consists in a adaptation of the Swinging Door Trending, as this main parameters are adjusted dynamically by the analysis of the signal tendencies in real time. It’s also proposed a comparative analysis of performance in lossy data compression algorithms applied on time series process variables and dynamometer cards. The algorithms used to compare were the piecewise linear and the transforms.
Resumo:
The classifier support vector machine is used in several problems in various areas of knowledge. Basically the method used in this classier is to end the hyperplane that maximizes the distance between the groups, to increase the generalization of the classifier. In this work, we treated some problems of binary classification of data obtained by electroencephalography (EEG) and electromyography (EMG) using Support Vector Machine with some complementary techniques, such as: Principal Component Analysis to identify the active regions of the brain, the periodogram method which is obtained by Fourier analysis to help discriminate between groups and Simple Moving Average to eliminate some of the existing noise in the data. It was developed two functions in the software R, for the realization of training tasks and classification. Also, it was proposed two weights systems and a summarized measure to help on deciding in classification of groups. The application of these techniques, weights and the summarized measure in the classier, showed quite satisfactory results, where the best results were an average rate of 95.31% to visual stimuli data, 100% of correct classification for epilepsy data and rates of 91.22% and 96.89% to object motion data for two subjects.
Resumo:
The use of chemical fertilization in arable perimeters provides increased productivity, though it can eventually lead to a qualitative depreciation of groundwater sources, especially if such sources are unconfined in nature. In this context, this thesis presents results from an analysis of the level of natural protection of the Barreiras Aquifer in an area located on the eastern coast of the Rio Grande do Norte State - Brazil. Such an aquifer is clastic in nature and has an unconfined hydraulic character, which clearly makes it susceptible to contamination from surface ground loads with contaminants associated with the leaching of excess fertilizers not absorbed by ground vegetation. The methodology used was based on the use of hydro-geophysical data, particularly inverse models of vertical electrical soundings (VES) and information from well profiles, allowing the acquisition of longitudinal conductance cartographies (S), data in mili-Siemens (mS), and the vulnerability of the aquifer. Such maps were prepared with emphasis to the unsaturated overlying zone, highlighting in particular its thickness and occurrence of clay lithologies. Thus, the longitudinal conductance and aquifer vulnerability reveal areas more susceptible to contamination in the northeast and east-central sections of the study area, with values equal to or less than 10mS and greater than or equal to 0,50, respectively. On the other hand, the southwestern section proved to be less susceptible to contamination, whose longitudinal conductance and vulnerability indices are greater than or equal to 30mS and less than or equal to 0,40, respectively.
Resumo:
The use of chemical fertilization in arable perimeters provides increased productivity, though it can eventually lead to a qualitative depreciation of groundwater sources, especially if such sources are unconfined in nature. In this context, this thesis presents results from an analysis of the level of natural protection of the Barreiras Aquifer in an area located on the eastern coast of the Rio Grande do Norte State - Brazil. Such an aquifer is clastic in nature and has an unconfined hydraulic character, which clearly makes it susceptible to contamination from surface ground loads with contaminants associated with the leaching of excess fertilizers not absorbed by ground vegetation. The methodology used was based on the use of hydro-geophysical data, particularly inverse models of vertical electrical soundings (VES) and information from well profiles, allowing the acquisition of longitudinal conductance cartographies (S), data in mili-Siemens (mS), and the vulnerability of the aquifer. Such maps were prepared with emphasis to the unsaturated overlying zone, highlighting in particular its thickness and occurrence of clay lithologies. Thus, the longitudinal conductance and aquifer vulnerability reveal areas more susceptible to contamination in the northeast and east-central sections of the study area, with values equal to or less than 10mS and greater than or equal to 0,50, respectively. On the other hand, the southwestern section proved to be less susceptible to contamination, whose longitudinal conductance and vulnerability indices are greater than or equal to 30mS and less than or equal to 0,40, respectively.
Resumo:
Desenvolveu-se no Instituto de Engenharia Nuclear um sistema de aquisição de dados para avaliação das condições operacionais de unidades industriais pelo estudo das curvas Distribuição do Tempo de Residência - RTD, composto de detectores cintiladores NaI (Tl) 3”x 3” conectados a analisadores monocanal cujos sinais são captados por uma interface acoplada a um microcomputador. Para a análise das informações coletadas desenvolveu-se o programa TRACER que efetua um tratamento matemático preliminar dos dados; apresenta na tela a curva RTD, e calcula valores como o tempo de residência médio e as funções resposta, tanto para estímulos instantâneos como para estímulos contínuos. As informações levantadas permitem a identificação de problemas como possíveis canalizações, fugas, zonas mortas e decréscimo na eficiência das unidades. Todo o conjunto é disposto em módulos compactos o que possibilita seu transporte e instalação em unidades industriais.
Resumo:
No passado recente foram desenvolvidas v árias t écnicas para classi ca ção de dados hiperspectrais. Uma abordagem tí pica consiste em considerar que cada pixel e uma mistura linear das reflectancias espectrais dos elementos presentes na c élula de resolu ção, adicionada de ru ído. Para classifi car e estimar os elementos presentes numa imagem hiperespectral, v ários problemas se colocam: Dimensionalidade dos dados, desconhecimento dos elementos presentes e a variabilidade da reflectância destes. Recentemente foi proposta a An álise em Componentes Independentes,para separa ção de misturas lineares. Nesta comunica ção apresenta-se uma metodologia baseada na An álise em Componentes Independentes para detec ção dos elementos presentes em imagens hiperespectrais e estima ção das suas quantidades. Apresentam-se resultados desta metodologia com dados simulados e com dados hiperespectrais reais, ilustrando a potencialidade da t écnica.