998 resultados para Dados ligados
Resumo:
A Teia Mundial (Web) foi prevista como uma rede de documentos de hipertexto interligados de forma a criar uma espaço de informação onde humanos e máquinas poderiam comunicar. No entanto, a informação contida na Web tradicional foi/é armazenada de forma não estruturada o que leva a que apenas os humanos a possam consumir convenientemente. Consequentemente, a procura de informações na Web sintáctica é uma tarefa principalmente executada pelos humanos e nesse sentido nem sempre é fácil de concretizar. Neste contexto, tornou-se essencial a evolução para uma Web mais estruturada e mais significativa onde é dado significado bem definido à informação de forma a permitir a cooperação entre humanos e máquinas. Esta Web é usualmente referida como Web Semântica. Além disso, a Web Semântica é totalmente alcançável apenas se os dados de diferentes fontes forem ligados criando assim um repositório de Dados Abertos Ligados (LOD). Com o aparecimento de uma nova Web de Dados (Abertos) Ligados (i.e. a Web Semântica), novas oportunidades e desafios surgiram. Pergunta Resposta (QA) sobre informação semântica é actualmente uma área de investigação activa que tenta tirar vantagens do uso das tecnologias ligadas à Web Semântica para melhorar a tarefa de responder a questões. O principal objectivo do projecto World Search passa por explorar a Web Semântica para criar mecanismos que suportem os utilizadores de domínios de aplicação específicos a responder a questões complexas com base em dados oriundos de diferentes repositórios. No entanto, a avaliação feita ao estado da arte permite concluir que as aplicações existentes não suportam os utilizadores na resposta a questões complexas. Nesse sentido, o trabalho desenvolvido neste documento foca-se em estudar/desenvolver metodologias/processos que permitam ajudar os utilizadores a encontrar respostas exactas/corretas para questões complexas que não podem ser respondidas fazendo uso dos sistemas tradicionais. Tal inclui: (i) Ultrapassar a dificuldade dos utilizadores visionarem o esquema subjacente aos repositórios de conhecimento; (ii) Fazer a ponte entre a linguagem natural expressa pelos utilizadores e a linguagem (formal) entendível pelos repositórios; (iii) Processar e retornar informações relevantes que respondem apropriadamente às questões dos utilizadores. Para esse efeito, são identificadas um conjunto de funcionalidades que são consideradas necessárias para suportar o utilizador na resposta a questões complexas. É também fornecida uma descrição formal dessas funcionalidades. A proposta é materializada num protótipo que implementa as funcionalidades previamente descritas. As experiências realizadas com o protótipo desenvolvido demonstram que os utilizadores efectivamente beneficiam das funcionalidades apresentadas: ▪ Pois estas permitem que os utilizadores naveguem eficientemente sobre os repositórios de informação; ▪ O fosso entre as conceptualizações dos diferentes intervenientes é minimizado; ▪ Os utilizadores conseguem responder a questões complexas que não conseguiam responder com os sistemas tradicionais. Em suma, este documento apresenta uma proposta que comprovadamente permite, de forma orientada pelo utilizador, responder a questões complexas em repositórios semiestruturados.
Resumo:
O conceito de média surge de modo abundante na disciplina de Métodos Estatísticos, presente em muitos cursos de licenciatura de instituições de ensino superior. Surge, de igual modo, em domínios onde a noção de acaso está ausente, mas onde o conceito de média continua a ser essencial no tratamento de dados ligados a determinadas grandezas. A tendência para a utilização de modelos quantitativos em número cada vez maior de domínios do saber, determinou a necessidade de colher quantidades sempre mais vastas de informação numérica, acompanhadas do correspondente tratamento.
Resumo:
Tomando como punto de partida mi colaboración en la recolección y la sistematización de datos vinculados al relevamiento territorial en distintas comunidades guaraníes del noroeste salteño, en apoyo al Programa de Relevamiento Territorial de Comunidades Indígenas (Re.Te.CI) y en el marco de la Ley de Emergencia en materia de posesión y propiedad comunitaria indígena (Ley 26.160), el presente artículo describe y analiza distintos momentos de la implementación del programa. Fundamentalmente, exploro las formas particulares que el mismo asumió en la provincia de Salta focalizándome en el Departamento General San Martín, siendo esta la región de mayor diversidad étnica de la provincia. Inspirada en la propuesta de Ferguson y Gupta (2002) de pensar al Estado como “una experiencia vivida” utilizo materiales etnográficos de tres comunidades indígenas donde se aplicó el programa de relevamiento territorial y me centro en una de ellas para pensar las formas que adopta la relación entre el Estado y los pueblos indígenas.
Resumo:
Tese apresentada ao Programa de Pós-Graduação em Administração da Universidade Municipal de São Caetano do Sul para a obtenção do título de Doutor em Administração
Resumo:
O Ministério da Saúde, considerando a existência de falhas do ponto de vista quantitativo (cobertura) no registro de nascidos vivos, no Brasil, e a impossibilidade de conhecer a distribuição dos nascidos vivos segundo algumas variáveis importantes sob a óptica clínico/epidemiológica (peso ao nascer, Índice de Apgar, duração da gestação, tipo de parto, paridade, idade e instrução da mãe), implantou em 1990, no Brasil, o Sistema de Informações sobre Nascidos Vivos - SINASC- tendo como documento-base a Declaração de Nascido Vivo - DN - com a finalidade de suprir essas lacunas. Com o objetivo de avaliar a cobertura e a fidedignidade das informações geradas pelo SINASC, foi analisada a distribuição dos nascidos vivos hospitalares segundo características epidcmiológicas relativas ao produto de concepção, à gravidez, ao parto e à mãe. A população de estudo compreendeu 15.142 nascidos vivos hospitalares ocorridos em cinco municípios do Estado de São Paulo, Brasil, no período de janeiro a julho de 1992. Os resultados permitiram reconhecer excelente cobertura do SINASC (emissão de DN acima de 99,5%) e ótima fidedignidade do preenchimento das DNs, para a maioria das variáveis, quando comparadas aos documentos hospitalares. Para algumas características foi observada maior fragilidade (Índice de Apgar, duração da gestação, instrução da mãe, número total de filhos tidos e nome do pai). São apresentadas sugestões para o aperfeiçoamento do SINASC e recomendados treinamentos/reciclagens do pessoal envolvido no preenchimento das DNs. O estudo confirma o fato de os dados permitirem análise válida para o conhecimento de aspectos ligados à saúde materno-infantil. Do ponto de vista epidemiológico, o estudo permitiu detectar proporções elevadas de parto operatório (48,4%), mães adolescentes (17,5%) e o valor estimado para o baixo peso ao nascer foi de 8,5%.
Resumo:
Com o advento da invenção do modelo relacional em 1970 por E.F.Codd, a forma como a informação era gerida numa base de dados foi totalmente revolucionada. Migrou‐se de sistemas hierárquicos baseados em ficheiros para uma base de dados relacional com tabelas relações e registos que simplificou em muito a gestão da informação e levou muitas empresas a adotarem este modelo. O que E.F.Codd não previu foi o facto de que cada vez mais a informação que uma base de dados teria de armazenar fosse de proporções gigantescas, nem que as solicitações às bases de dados fossem da mesma ordem. Tudo isto veio a acontecer com a difusão da internet que veio ligar todas as pessoas de qualquer parte do mundo que tivessem um computador. Com o número de adesões à internet a crescer, o número de sites que nela eram criados também cresceu (e ainda cresce exponencialmente). Os motores de busca que antigamente indexavam alguns sites por dia, atualmente indexam uns milhões de sites por segundo e, mais recentemente as redes sociais também estão a lidar com quantidades gigantescas de informação. Tanto os motores de busca como as redes sociais chegaram à conclusão que uma base de dados relacional não chega para gerir a enorme quantidade de informação que ambos produzem e como tal, foi necessário encontrar uma solução. Essa solução é NoSQL e é o assunto que esta tese vai tratar. O presente documento visa definir e apresentar o problema que as bases de dados relacionais têm quando lidam com grandes volumes de dados, introduzir os limites do modelo relacional que só até há bem pouco tempo começaram a ser evidenciados com o surgimento de movimentos, como o BigData, com o crescente número de sites que surgem por dia e com o elevado número de utilizadores das redes sociais. Será também ilustrada a solução adotada até ao momento pelos grandes consumidores de dados de elevado volume, como o Google e o Facebook, enunciando as suas características vantagens, desvantagens e os demais conceitos ligados ao modelo NoSQL. A presente tese tenciona ainda demonstrar que o modelo NoSQL é uma realidade usada em algumas empresas e quais as principias mudanças a nível programático e as boas práticas delas resultantes que o modelo NoSQL traz. Por fim esta tese termina com a explicação de que NoSQL é uma forma de implementar a persistência de uma aplicação que se inclui no novo modelo de persistência da informação.
Resumo:
Dentre as propriedades físicas do solo, a condutividade hidráulica é uma das mais importantes, quando se estudam fenômenos que estão ligados ao movimento da água no solo. O método para determinar a função condutividade hidráulica versus umidade ou função K(θ) de um solo, denominada método de perfil instantâneo, tem como maior vantagem o fato de se basear em medições diretas no campo, sem necessidade de aguardar o estabelecimento de um equilíbrio dinâmico. No caso de experimentos desse tipo, não se conhecem estudos sobre sua sensibilidade em relação a erros nos dados experimentais; tampouco se conhece a influência que uma observação experimental a mais ou a menos possa ter sobre a parametrização da função K(θ) O presente trabalho visou analisar a sensibilidade do método de perfil instantâneo a variações nas observações realizadas in situ Utilizaram-se dados de dois experimentos de perfil instantâneo realizados no campus "Luiz de Queiroz", da Universidade de São Paulo, em Piracicaba (SP). Por meio de um algoritmo computacional para a análise dos dados experimentais, verificou-se a sensibilidade do resultado do cálculo dos parâmetros da função K(θ) para variações nos valores de entrada. Foi analisado o efeito das seguintes alterações no conjunto original de dados: retirada de uma leitura completa do conjunto de dados; retirada de leituras finais; erro no coeficiente angular de calibração do TDR; erro no intercepto da curva de calibração do TDR; erro em uma das leituras do TDR. Pelos resultados do levantamento, concluiu-se que o método do perfil instantâneo, conjuntamente com a rotina computacional utilizada para processar os valores observados no campo, apresenta alta sensibilidade a pequenas incertezas no ajuste de funções aos valores da umidade Versus tempo; é também muito sensível à leitura do tempo zero, que, portanto, deveria ser desconsiderada. Erros ou incertezas nos ajustes dos valores do potencial total Versus a profundidade têm menor influência no resultado final. Se houver comportamento não estritamente exponencial entre condutividade hidráulica e umidade, a sensibilidade do método para pequenas alterações no conjunto de dados de entrada aumenta. Respectivos erros no coeficiente angular e no intercepto de um TDR com equação de calibração linear alteram os respectivos coeficiente angular (γ) ou intercepto (ln(K*)) da relação entre condutividade hidráulica e umidade, quando o potencial matricial é obtido por tensiometria.
Resumo:
INTRODUÇÃO: O hiperparatireoidismo secundário (HPS) é uma complicação comum e grave no curso da doença renal crônica (DRC), com impacto direto sobre a morbidade e mortalidade desses pacientes. Apesar dos avanços no tratamento clínico do HPS a falência terapêutica ocorre em parcela significativa dos pacientes. Nesses casos, a paratireoidectomia (PTx) é indicada. OBJETIVO: Este trabalho visa abordar a situação atual no Brasil de pacientes com HPS em hemodiálise com indicação de PTx. MÉTODOS: Estudo observacional, descritivo, com dados obtidos de questionário enviado a 660 centros de diálise (CD). RESULTADOS: Os resultados estão expressos em valores absolutos, médias e desvio padrão; 226 (34%) CD responderam ao questionário, representando 32.264 pacientes em hemodiálise (HD). A prevalência de pacientes com paratormônio (PTH) > 1.000pg/mL foi de 3.463 (10,7%). Em 49 (21,7%) CD não é possível encaminhar os pacientes para PTx. Cerca de 40% dos serviços que realizam PTx são ligados a centros universitários. Em 74 (33%) CD o tempo de espera para que um paciente seja operado é superior a 6 meses. Foram contabilizados 68 serviços que realizam PTx. Os principais problemas relacionados para a realização de PTx foram: dificuldades com a realização dos exames pré-operatórios, escassez de cirurgiões de cabeça e pescoço, e longa fila de espera. CONCLUSÕES: a prevalência de HPS grave é elevada em nosso meio. Uma parcela significativa de pacientes não tem acesso ao tratamento cirúrgico. Uma melhor organização das políticas de saúde pública, além de um maior entrosamento entre nefrologistas e cirurgiões de cabeça e pescoço, em torno dessa questão, são necessários para a mudança dessa realidade.
Resumo:
Este trabalho apresenta um sistema microcontrolado para aquisição dinâmica de sinais. O sistema possui condicionadores analógicos para três canais de entrada, possibilitando a leitura de sinais diferenciais provenientes de transdutores ligados em ponte de Wheatstone. Estes condicionadores provêem tensão de excitação AC, com portadora de 5 kHz. A parte digital do sistema baseia-se no microcontrolador Intel 80C196. Apresenta interface com o usuário através de teclado e mostrador de cristal líquido. A taxa de aquisição é de 1000 amostras/s e o armazenamento dos dados é feito em memória Flash de 4 Mbits. Também possibilita comunicação digital serial com um microcomputador tipo PC para análise e tratamento dos dados adquiridos. Um protótipo do equipamento foi montado interligando as partes analógica e digital. Para a calibração dos condicionadores de sinais foi adotado o procedimento de calibração estática, tendo como referência uma unidade de calibração resistiva padrão. Foi determinado o comportamento dos condicionadores através de ensaios dinâmicos, sendo apresentados gráficos de resposta em amplitude e fase em função da freqüência do sinal de entrada. Os dados resultantes de ensaios estáticos e dinâmicos foram adquiridos por um osciloscópio digital e pelo sistema de aquisição desenvolvido. São mostrados gráficos comparativos dos sinais obtidos com ambos os equipamentos.
Resumo:
As freqüências de variantes alélicas de diferentes genes envolvidos no desenvolvimento da resposta imune foram analisadas em uma população de origem japonesa do sul do Brasil (n=119). Polimorfismos bialélicos dos genes CCR5, TNFR-II e IL-10, e dos segmentos gênicos TCRBV3S1, TCRBV13S5 e TCRBV18 foram analisados por PCR-RFLP. As freqüências alélicas foram determinadas e comparadas com as freqüências encontradas em outros grupos étnicos (caucasóides e afro-brasileiros). Nós observamos a ausência do alelo CCR5D32 na população testada. Os polimorfismos dos segmentos gênicos TCRBV3S1 e TCRBV13S5, e do gene IL-10 apresentaram freqüências alélicas significativamente diferentes das freqüências observadas em caucasóides e afro-brasileiros. O polimorfismo do segmento gênico TCRBV18 apresentou freqüências alélicas estatisticamente diferentes de caucasóides. Além disso, a comparação de duas sub-populações (definidas em nossa amostra de acordo com a origem geográfica no Japão) indicou diferenças entre as freqüências alélicas dos polimorfismos gênicos de TCRBV18 e IL-10 das mesmas. Esses dados indicam a existência de diferentes padrões imunogenéticos entre diferentes grupos étnicos. Outros polimorfismos SNPs de genes ligados ao sistema imune serão testados e comparados em nosso laboratório, utilizando as mesmas populações.
Resumo:
It is presented an integrated geophysical investigation of the spatial distribution of faults and deformation bands (DB´s) in a faulted siliciclastic reservoir analogue, located in Tucano Basin, Bahia State, northeastern Brazil. Ground Penetrating Radar (GPR) and permeability measurements allowed the analysis of the influence of DB´s in the rock permeability and porosity. GPR data were processed using a suitable flow parametrization in order to highlight discontinuities in sedimentary layers. The obtained images allowed the subsurface detection of DB´s presenting displacements greater that 10 cm. A good correlation was verified between DB´s detected by GPR and those observed in surface, the latter identified using conventional structural methods. After some adaptations in the minipermeameter in order to increase measurement precision, two approaches to measure permeabilities were tested: in situ and in collected cores. The former approach provided better results than the latter and consisted of scratching the outcrop surface, followed by direct measurements on outcrop rocks. The measured permeability profiles allowed to characterize the spatial transition from DB´s to undeformed rock; variation of up to three orders of magnitude were detected. The permeability profiles also presented quasi-periodic patterns, associated with textural and granulometric changes, possibly associated to depositional cycles. Integrated interpretation of the geological, geophysical and core data, provided the subsurface identification of an increase in the DB´s number associated with a sedimentary layer presenting granulometric decrease at depths greater than 8 m. An associated sharp decrease in permeability was also measured in cores from boreholes. The obtained results reveal that radagrams, besides providing high resolution images, allowing the detection of small structures (> 10 cm), also presented a correlation with the permeability data. In this way, GPR data may be used to build upscaling laws, bridging the gap between outcrop and seismic data sets, which may result in better models for faulted reservoirs
Resumo:
Pós-graduação em Educação Matemática - IGCE
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Since the last decade, the combined use of chemometrics and molecular spectroscopic techniques has become a new alternative for direct drug determination, without the need of physical separation. Among the new methodologies developed, the application of PARAFAC in the decomposition of spectrofluorimetric data should be highlighted. The first objective of this article is to describe the theoretical basis of PARAFAC. For this purpose, a discussion about the order of chemometric methods used in multivariate calibration and the development of multi-dimensional methods is presented first. The other objective of this article is to divulge for the Brazilian chemical community the potential of the combination PARAFAC/spectrofluorimetry for the determination of drugs in complex biological matrices. For this purpose, two applications aiming at determining, respectively, doxorrubicine and salicylate in human plasma are presented.