919 resultados para Criptografia de dados (Computação)
Resumo:
Cada vez mais é crescente o uso do GPS (Global Positioning System ) em estudos da atmosfera terrestre. Neste artigo, a atmosfera superior da Terra, denominada ionosfera, foi estudada durante um período de alta atividade solar (ano de 2001) usando dados de receptores GPS de dupla freqüência localizados na região brasileira, pertencentes à RBMC (Rede Brasileira de Monitoramento Contínuo). A partir dos dados GPS foram calculados os valores de TEC (Total Electron Content - Conteúdo Total de Elétrons) da ionosfera. Adicionalmente foram incluídos no estudo dados de freqüência crítica da camada F2 advinda de Digissondas localizadas em São Luís/MA (3ºS; 44ºW) e Cachoeira Paulista/SP (22ºS; 45ºW), para fins de comparação. de uma forma geral, os resultados mostraram maiores valores de TEC durante os meses próximos aos equinócios e menores durante os meses de inverno. Quanto à variação diária do TEC, os menores valores foram verificados por volta das 4-6 HL (Hora Local) e os maiores durante o período da tarde, com valores um pouco maiores para São Luís. O segundo pico da anomalia equatorial foi verificado em Cachoeira Paulista nos meses próximos aos equinócios e verão. Na maioria dos meses, uma alta correlação linear foi verificada quando realizada a comparação entre os valores de freqüência crítica da camada F2 e os de TEC, principalmente para São Luís.
Resumo:
O objetivo do artigo foi avaliar o uso da lógica fuzzy para estimar possibilidade de óbito neonatal. Desenvolveu-se um modelo computacional com base na teoria dos conjuntos fuzzy, tendo como variáveis peso ao nascer, idade gestacional, escore de Apgar e relato de natimorto. Empregou-se o método de inferência de Mamdani, e a variável de saída foi o risco de morte neonatal. Criaram-se 24 regras de acordo com as variáveis de entrada, e a validação do modelo utilizou um banco de dados real de uma cidade brasileira. A acurácia foi estimada pela curva ROC; os riscos foram comparados pelo teste t de Student. O programa MATLAB 6.5 foi usado para construir o modelo. Os riscos médios foram menores para os que sobreviveram (p < 0,001). A acurácia do modelo foi 0,90. A maior acurácia foi com possibilidade de risco igual ou menor que 25% (sensibilidade = 0,70, especificidade = 0,98, valor preditivo negativo = 0,99 e valor preditivo positivo = 0,22). O modelo mostrou acurácia e valor preditivo negativo bons, podendo ser utilizado em hospitais gerais.
Resumo:
A abordagem qualitativa em pesquisa nas áreas da Educação e Ciências Sociais tem representado um caminho alternativo à rigidez positivista. Entretanto, vem preocupando os pesquisadores brasileiros pela sua característica de não sistematização. Face a isso, o presente trabalho visa contribuir para uma discussão metodológica sobre análise qualitativa ao relatar um procedimento sequenciado, sistematizado e passível de ser aplicado a dados de entrevista semi-estruturada e livre, que compreende todos os passos, da construção do instrumento para coleta de dados à apreensão do significado das falas dos sujeitos, terminando numa redação precisa, dentro do enfoque teórico do pesquisador.
Resumo:
São estabelecidas as matrizes necessárias para a realização da análise de variância de experimentos em parcelas subdivididas, com dados não-balanceados e balanceados, quando os tratamentos aplicados às parcelas e os tratamentos aplicados às subparcelas são ambos fatores quantitativos, usando a teoria de modelos lineares e de modelos lineares generalizados. Foi desenvolvido um programa computacional, na linguagem GLIM, para a realização da análise.
Resumo:
Este trabalho tem por objetivo formalizar os termos das respectivas somas de quadrados e hipóteses mais usuais, que são testadas nos modelos com três fatores de efeitos fixos hierarquizados para dados desbalanceados. Discute-se, também, o problema da interpretação de hipóteses associadas às somas de quadrados, bem como comparam-se os resultados fornecidos por alguns softwares estatísticos.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
No presente estudo, ajustou-se um modelo de regressão logística para prever a probabilidade de óbito de cães acometidos por gastroenterite hemorrágica. O modelo Logístico é recomendado para variáveis-resposta dicotômicas em estudo de Coorte. Registraram-se 176 animais censitariamente atendidos com gastroenterite hemorrágica em quatro clínicas veterinárias da cidade de Lavras, sul de Minas Gerais, entre os anos de 1992 e 1999. Após terem sido selecionadas por meio do teste de Pearson ou teste exato de Fisher, ajustou-se o modelo considerando-se as variáveis sexo, idade, diárias de internação e número de atendimentos. A estimação dos parâmetros foi feita pelo método da máxima verossimilhança. Conclui-se que quando os cães acometidos por gastroenterite hemorrágica são atendidos apenas uma vez, aqueles com idade superior a 6 meses possuem 15,45 vezes mais chances de morrerem (P<0,05) do que aqueles com menos de 6 meses de idade. Quando os animais que apresentam a enfermidade possuem mais de 6 meses de idade, a chance de morrerem, se forem atendidos apenas uma vez, é 20,251 vezes maior (P<0,05) do que se recebessem de 2 a 7 atendimentos.
Resumo:
The objective of the present article is to identify and discuss the possibilities of using qualitative data analysis software in the framework of procedures proposed by SDI (socio-discursive interactionism), emphasizing free distribuited software or free versions of commercial software. A literature review of software for qualitative data analysis in the area of social sciences and humanities, focusing on language studies is presented. Some tools, such as: Wef-tQDA, MLCT, Yoshikoder and Tropes are examined with their respective features and functions. The software called Tropes is examined in more detail because of its particular relation with language and semantic analysis, as well as its embeded classification of linguistic elements such as, types of verbs, adjectives, modalizations, etc. Although trying to completely automate an SDI based analysis is not feasible, the programs appear to be powerful helpers in analyzing specific questions. Still, it seems important to be familiar with software options and use different applications in order to obtain a more diversified vision of the data. It is up to the researcher to be critical of the analysis provided by the machine.
Resumo:
Deals with some common problems in structural analysis when calculating the experimental semi-variogram and fitting a semi-variogram model. Geochemical data were used and the following cases were studied: regular versus irregular sampling grade, presence of 'outliers' values, skew distributions due to a high variability of the data and estimation using a kriging procedure. -from English summary
Resumo:
Presents a study of the spectral response of a specific vegetative cover under the same soil elevation angle, but in different classes of slope, through Landsat transparencies. The site located in the region of Presidente Prudente was studied through topo sheets to define the classes of slope. Densitometric readings were obtained of selected areas, representing the terrain reflectance in different relief conditions. The cluster analysis was used to classify the densitometric data according to the classes of slope. The map of classes of slope/reflectance of the terrain surface showed a high correlation, mainly for the classes A (0-10%) and B (10-20%). -from English summary
Resumo:
Successful application of shallow seismic reflection method is related directly to the ability of the ground to transmit high-frequency seismic energy from a seismic source. The dominant frequencies of reflection data are in the range of 50 to 100 Hz and depend on the surface materials and water table. A spread of geophones send the siemsic signal to be recorded on a 12, 24 or 48 channel portable seismograph, using a single high-frequency geophone per channel. Although it is possible to find seismographs with display and processing unities, it is also possible to transfer digitalized data to a personal computer to be processed and interpreted by using specific programs. Some results of two recent field studies to specify the underground structure in the tidal flats area of Baie St. Paul (Quebec-Canada) and in glacial terrains, in the Waterloo (Ontario-Canada) region. -from English summary
Resumo:
Software in BASIC (GWBASIC, version 2.0) and TURBO PASCAL (version 3.0) is presented for PC type microcomputers with the purpose of calculating the graphical method for multivariate data according to Andrews. Applying both softwares to data from the Irati Formation mesossaurides skull measures, in velocity and graphical quality, the TURBO PASCAL language performed better. -after English summary
Resumo:
Crustal discontinuities may be seen as A-type collision sutures with triple junction arrays. Shear belts developed at the block borders due to oblique plate convergence. A consistent litho-structural zoning may be observed along the border zones of the blocks: the known high-grade terrains are exposed along the upper block border and pass to distal granite-greenstone terrains; in the lower block, granite-greenstone terrains form the older basement, and supracrustals occur as a metavolcano-sedimentary belt near or adjacent to the suture. This regional litho-structural framework may be related to diachronous collisions of sialic masses which lead to their amalgamation into an extensive continental mass. -from English summary
Resumo:
The nylon bag in situ degradation thecnique was employed to compare the data of the CNCPS to the ruminal degradability of the dry matter and crude protein in corn silage, soybean meal and sorghum grain, in four rumen fistulated Nellore steers, averaging 36 months of age and 520 kg of liveweight. A randomized complete block experimental design was used, where animals constituted the blocks. Two levels of concentrate, 18 and 39 %, were used in the diets. The forage used in the diets was corn silage and the concentrate ingredients were: soybean meal, cottonseed meal, corn grain and sorghum grain. There was a reduction in the potentially by degradable fraction (B) of the dry matter(DM) of the corn silage and sorghum grain with an increase in the concentrate level of the diet; however, the degradation rate(c) of the silage was similar for the two diets and the sorghum grain showed an increase of 28.4 %. The B fraction of the DM from the soybean meal was not affected by the diet, but its rate (c) was reduced by 18.1 %. The same effect was observed for the rate(c) of crude protein(CP) of the soybean meal, with a reduction of 38.1 %. The values for the effective degradability of the two fractions were not affected by the diet when the lag time was not considered. When lag time was considered, the degradability values of the studied feeds were superior in both fractions.
Resumo:
This article has the purpose to review the main codes used to detect and correct errors in data communication specifically in the computer's network. The Hamming's code and the Ciclic Redundancy Code (CRC) are presented as the focus of this article as well as CRC hardware implementation. Each code is reviewed in details in order to fill the gaps in the literature and to make it accessible to the computer science and engineering students as well as to anyone who may be interested in learning the technique to treat error in data communication.