1000 resultados para Aplicações de dados
Resumo:
OBJETIVO: Comparar dados de dosimetria e fluência de fótons entre diferentes modelos de mama, discutindo as aplicações em testes de constância e estudos dosimétricos aplicados à mamografia. MATERIAIS E MÉTODOS: Foram simulados diferentes modelos homogêneos e um modelo antropomórfico de mama tipo voxel, sendo contabilizadas: a dose total absorvida no modelo, a dose absorvida pelo tecido glandular/material equivalente, e a dose absorvida e a fluência de fótons em diferentes profundidades dos modelos. Uma câmara de ionização simulada coletou o kerma de entrada na pele. As combinações alvo-filtro estudadas foram Mo-30Mo e Mo-25Rh, para diferentes potenciais aceleradores de 26 kVp até 34 kVp. RESULTADOS: A dose glandular normalizada, comparada ao modelo voxel, resultou em diferenças entre -15% até -21% para RMI, -10% para PhantomMama e 10% para os modelos Barts e Keithley. A variação dos valores da camada semirredutora entre modelos foi geralmente inferior a 10% para todos os volumes sensíveis. CONCLUSÃO: Para avaliar a dose glandular normalizada e a dose glandular, em mamas médias, recomenda-se o modelo de Dance. Os modelos homogêneos devem ser utilizados para realizar testes de constância em dosimetria, mas eles não são indicados para estimar a dosimetria em pacientes reais
Resumo:
OBJETIVO: Apresentar uma ferramenta de análise de dados que pode ser utilizada para proteção de pacientes e trabalhadores em áreas de uso de equipamentos móveis. MATERIAIS E MÉTODOS: Foi desenvolvida uma ferramenta, em planilha ativa Excel®, que utiliza medidas de exposição para gerar um banco de dados de fatores de forma e calcular o kerma no ar ao entorno de um leito. O banco de dados inicial foi coletado com três equipamentos móveis. Um espalhador não antropomórfico foi utilizado, sendo realizadas medidas de exposição em uma malha de (4,2 × 4,2) m², ao passo de 0,3 m. RESULTADOS: A ferramenta calcula o kerma no ar (associado à exposição de pacientes expostos e ao equivalente de dose ambiente) à radiação secundária. Para distâncias inferiores a 60,0 cm, valores acima do limite máximo de equivalente de dose ambiente definido para área livre (0,5 mSv/ano) foram verificados. Os dados coletados a 2,1 m foram sempre inferiores a 12% do referido limite. CONCLUSÃO: A ferramenta é capaz de auxiliar na proteção radiológica de pacientes e trabalhadores, quando associada à coleta de dados adequada, pois possibilita a determinação de áreas livres ao entorno de leitos em áreas onde equipamentos móveis geradores de radiação X são utilizados.
Resumo:
Algumas variáveis climáticas, tais como a temperatura do ar (T) e a umidade relativa do ar (UR) exercem grande influência sobre a produção agrícola. Uma vez combinadas adequadamente, podem resultar em incrementos quantitativos e qualitativos do produto final, o que as tornam indispensáveis no monitoramento e manejo dentro do ambiente de produção. A aquisição de dados é uma importante ferramenta que pode auxiliar nesse processo, resultando em maior eficiência e uso racional dos recursos. Desse modo, o presente trabalho teve por objetivo o desenvolvimento de um sistema de aquisição de dados (SAD) compacto, na forma de um datalogger (de construção simples), para monitorar T e UR. Os dados provenientes dos sensores utilizados são gravados numa memória do tipo flash drive (USB removível), que é posteriormente conectada a um computador para interpretação dos dados via software. A fim de avaliar o desempenho do SAD, os dados registrados foram comparados com os dados de uma estação meteorológica convencional e de uma automatizada, apresentando valores de UR próximos em ambos os casos. Para T, a substituição do amplificador operacional é necessária. Dessa forma, o SAD desenvolvido apresenta-se viável inclusive para aplicações em campo.
Resumo:
A aplicação em pré-emergência no início do ciclo do algodoeiro é prática consagrada entre os produtores. Embora os herbicidas diuron, oxyfluorfen e prometryne sejam opções para uso nessa cultura, há informações limitadas referentes à eficácia desses herbicidas no controle de Euphorbia heterophylla. O objetivo do presente trabalho foi determinar a curva de dose-resposta de diuron, oxyfluorfen e prometryne para o controle de E. heterophylla, bem como analisar a eficiência biológica de misturas desses herbicidas no manejo dessa espécie. O trabalho foi composto por seis experimentos conduzidos simultaneamente em casa de vegetação, sendo três deles com doses crescentes de cada herbicida aplicado isoladamente e três compostos por misturas dos herbicidas dois a dois. A curva de dose-resposta foi ajustada para os dados das avaliações de porcentagem de redução de massa seca aos 28 dias após a aplicação. Determinoaram-se as doses I80 e I95, que correspondem ao controle de 80% e 95%, respectivamente, de controle visual ou redução da massa seca. Diuron, oxyfluorfen e prometryne, aplicados isoladamente, mostraram-se eficientes, dentro do intervalo de doses utilizado, no controle de E. heterophylla. As misturas contendo oxyfluorfen apresentaram-se, de modo geral, como aditivas ou antagonísticas, ao passo que misturas de diuron+prometryne foram aditivas ou sinergísticas. Das três combinações de produtos possíveis, oxyfluorfen+prometryne foi a associação que resultou em menor número de tratamentos que promoveram controle aceitável do leiteiro.
Resumo:
Para avaliar a deposição e as perdas de calda nas aplicações de produtos fitossanitários, na maioria dos casos são utilizados traçadores. Entretanto, não há consenso sobre qual é o traçador mais adequado para cada tipo de aplicação. O objetivo deste trabalho foi avaliar o uso de alguns compostos químicos empregados como traçadores, buscando selecionar os mais adequados aos estudos de deposição e perda de produtos fitossanitários. Os traçadores utilizados foram: azul brilhante, blankophor, fluoresceína sódica, rodamina B e sulfoflavina brilhante; as concentrações usadas foram: 1.000, 20, 15, 50 e 1.000 ppm, respectivamente. A quantificação do azul brilhante foi feita por espectrofotometria, e a dos demais, por espectrofluorimetria. Os filtros de excitação e emissão do fluorímetro variaram de acordo com o traçador. No espectrofotômetro, utilizou-se o comprimento de onda de 630 nm. As características avaliadas nas soluções contendo os traçadores foram: tensão superficial, pH, viscosidade, extração em alvos de papel filtrante e estabilidade à luz solar e à agitação. Os dados foram submetidos à análise de variância e, constatada diferença significativa, aplicou-se teste de médias e regressão. Entre as características físico-químicas, somente a viscosidade não foi influenciada pelos traçadores. A maior eficiência de extração em alvo de papel foi obtida pela sulfoflavina brilhante, que, juntamente com o azul brilhante, demonstrou ser o traçador mais estável à luz solar. O blankophor foi o traçador que teve menor estabilidade à agitação da calda. A sulfoflavina brilhante mostrou ser o traçador mais adequado aos estudos de deposição de calda e deriva nas aplicações de produtos fitossanitários. Entre os traçadores de baixo custo e maior disponibilidade no Brasil, o corante fluorescente rodamina B mostrou ser a melhor opção ao se utilizar como alvo papel filtrante.
Resumo:
Hypolytrum Rich. (subfamília Mapanioideae) tem distribuição pantropical e está representado por 16-21 espécies na região Neotropical, das quais grande parte ocorre no Brasil habitando diferentes ecossistemas. São apresentados dados de anatomia foliar com maior relevância taxonômica para 10 espécies do gênero. Entre eles, destacam-se: formato da folha em secção transversal; presença de grânulos, provavelmente de sílica, em células epidérmicas; aspectos da cutícula, da hipoderme e do parênquima lacunoso; número de camadas e origem (hipodérmica e epidérmica) das células buliformes; presença de células epidérmicas papilosas; e ocorrência de parênquima radiado nos feixes menores. Os estudos de anatomia foliar mostram-se relevantes na delimitação genérica e específica, porém não apoiam as secções taxonômicas estabelecidas.
Resumo:
O Laboratório de Cromatografia do IQSC-USP tem desenvolvido pesquisas em conjunto com outros grupos de pesquisa do Brasil e da América Latina, visando a futura implantação da SFE (extração com fluido supercrítico) nestes laboratórios. No presente trabalho, apresenta-se alguns dos resultados obtidos na cooperação com pesquisadores do Chile e da Venezuela, direcionados para a SFE de substâncias de potencial interesse econômico, princípios ativos ou substâncias tóxicas: triglicerídeos, ácidos graxos, flavonóides, alcalóides, etc. Foram estudadas plantas nativas do Chile e da Venezuela, algumas delas nunca estudadas por métodos fitoquímicos convencionais e pertencentes a várias famílias vegetais: Leguminosae, Chrysobalanaceae, Annonnaceae, etc. O uso da SFE em conjunto com CGAR-EM (cromatografia gasosa de alta resolução - espectrometria de massas) ou CLAE-DAD (cromatografia líquida de alta eficiência com detector" photodiodearray") permitiu a identificação de algumas substâncias presentes em baixa concentração, a partir de pequenas quantidades de material vegetal; estes dados são de grande importância para a caracterização química das espécies estudadas.
Resumo:
Com o aumento acelerado da oferta de cursos na modalidade a distância nas instituições privadas de ensino superior brasileiras e com a ampliação de serviços e produtos para atender a demanda de produção dessa modalidade de ensino. Surgem, consequentemente, novos desafios e referenciais teórico-metodológicas para produção de materiais didáticos em espaços virtuais de aprendizagem. Para tanto, esta pesquisa visa investigar elementos que potencializem o uso de aplicações computacionais que são disponibilizados em ambientes virtuais de aprendizagem, na tentativa de fornecer contribuições para indicação de parâmetros de qualidade para a construção de recursos de aprendizagem para o ensino e aprendizagem no ensino online. Com isso, as condições que podem propiciar a ressignificação dos processos de mediação pedagógica e construção de material didático em AVAs passam a ser elementos importantes a se considerar. Além de contemplar os recursos computacionais, surge a necessidade de identificar o perfil dos profissionais (professor conteudista e designer instrucional) envolvidos diretamente com o processo de elaboração de materiais, sem desconsiderar as ferramentas ágeis de produção (rapid learning) como possíveis elementos facilitadores para aprimorar a qualidade de aula e ainda, constatar por meio de um mapeamento a experiência dos alunos diante do preparo das aulas. Com base nas contribuições e nos achados referenciados nessa investigação, sob o olhar de autores consagrados na escolha da temática em questão, vislumbram-se os conceitos norteadores das teorias da aprendizagem, da motivação, do perfil formador na visão docente e discente, dos estilos de ensino e aprendizagem online, dos processos cognitivos, do planejamento e produção de um curso, dos recursos e interfaces educacionais e, por conseguinte, dos aspectos interacionais promovidos no ensino online. Os temas sobre educação e sociedade foram embasados em textos de Delors (1996), Santos (2002) e Castells (1999). Foi estudada, ainda, a relação docente com as novas tecnologias nas visões de Moran (2007), Lévy (1999) e Demo (1993) e por último as contribuições de Filatro (2007, 2008) sobre as competências necessárias para atuação e participação do trabalho do Designer Instrucional no processo de elaboração de material para facilitar aspectos inerentes à cognição e facilitação do ensino e aprendizagem. A escolha metodológica aplicada na pesquisa pode ser considerada qualiquantitativa, por preocupar-se não apenas em quantificar as opiniões, mas também fornecer elementos que possam gerar contribuições para ampliar a qualidade de serviços nesse cenário. O percurso escolhido para análise dos dados se deu a partir da criação de um curso gratuito de extensão acadêmica a distância, onde foi adicionado um questionário para os alunos participantes que tinham perfil de idade de 18 a 35 anos (gerações de 70', 80' e 90') com intuito de investigar as contribuições dos aplicativos utilizados para contextualizar o material teórico disponibilizado no AVA.
Resumo:
O artigo apresenta uma ferramenta que auxilia na implementação de aplicações que empregam mais de uma linguagem de programação. Tais aplicações são ditas multilinguagens e quando as linguagens que as compõem representam diferentes paradigmas de programação, também são denominadas multiparadigmas. A técnica de programação multilinguagem permite que se utilize a linguagem de programação mais adequada à cada parte da aplicação. Em caso de equipes híbridas de programação podemos aproveitar o conhecimento de cada uma das equipes no uso das linguagens que irão compor a aplicação. A ferramenta descrita no artigo, implementada através de um conjunto de processos Win32, monitora e executa serviços de transferência de dados e controle entre os processos que compõem a aplicação. Através de uma interface gráfica o programador pode operá-la por meio de dois modos: desenvolvimento e execução. Dentre as áreas que poderiam se beneficiar com a a ferramenta, podemos citar a aplicação pedagógica relacionada ao ensino de paradigmas de programação, aplicações já existentes que necessitam estender-se com o emprego de outras linguagens de programação e aplicações cujos problemas envolvidos se constituem em diferentes paradigmas de programação.
Resumo:
Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.
Resumo:
Nos Sistemas de Informação Geográfica (SIG), os aspectos temporais são importantes, principalmente, para representar o histórico de dados georreferenciados. Vários modelos conceituais de dados para SIG propõem classes e operações que permitem representar os aspectos espaciais e temporais das aplicações. Porém, ao nível do modelo interno dos sistemas atuais, as estruturas de dados armazenam e manipulam somente os aspectos espaciais dos dados geográficos, não contemplando os aspectos espaço-temporais propostos nos modelos conceituais. O objetivo desse trabalho é estender estruturas de dados do tipo quadtree para suporte ao armazenamento e à recuperação de dados espaço-temporais.
Resumo:
A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.
Resumo:
Nas aplicações do mundo real, os dados mudam com o passar do tempo. Devido à característica dinâmica das aplicações, o esquema conceitual também pode mudar para se adaptar às mudanças que freqüentemente ocorrem na realidade. Para representar esta evolução, uma nova versão do esquema é definida e os dados armazenados são adaptados à nova versão. Entretanto, existem aplicações que precisam acessar também o esquema sob os diversos aspectos de suas mudanças, requerendo o uso de versionamento de esquemas. Durante a evolução do esquema, o versionamento preserva todas as versões deste esquema e seus dados associados, possibilitando a recuperação dos dados através da versão com a qual foram definidos. Ultimamente muitas pesquisas têm sido realizadas envolvendo as áreas de versionamento de esquemas e bancos de dados temporais. Estes bancos de dados provêm suporte ao versionamento de esquemas, pois permitem armazenar e recuperar todos os estados dos dados, registrando sua evolução ao longo do tempo. Apesar de muitos esforços, ainda não existem SGBDs temporais comercialmente disponíveis. A utilização de um modelo de dados temporal para a especificação de uma aplicação não implica, necessariamente, na utilização de um SGBD específico para o modelo. Bancos de dados convencionais podem ser utilizados desde que exista um mapeamento adequado entre o modelo temporal e o SGBD utilizado. Este trabalho apresenta uma abordagem para a implementação de um banco de dados temporal permitindo o versionamento de esquemas, usando um banco de dados relacional, tendo como base o modelo temporal TRM (Temporal Relational Model). Como forma de ilustrar apresenta-se um exemplo de implementação utilizando o SGBD DB2. O principal objetivo é avaliar diferentes técnicas de implementar e gerenciar o versionamento de esquemas em bancos de dados temporais. Para atingir esse objetivo, um protótipo foi desenvolvido para automatizar os mapeamentos do TRM para o DB2 e gerenciar o versionamento de esquemas e dados. Duas experiências de implementação foram realizadas utilizando formas diferentes de armazenar os dados - um repositório e vários repositórios - com o objetivo de comparar os resultados obtidos, considerando um determinado volume de dados e alterações. Um estudo de caso também é apresentado para validar as implementações realizadas.
Resumo:
XML é um padrão da W3C largamente utilizado por vários tipos de aplicações para representação de informação semi-estruturada e troca de dados pela Internet. Com o crescimento do uso de XML e do intercâmbio de informações pela Internet é muito provável que determinadas aplicações necessitem buscar uma mesma informação sobre várias fontes XML relativas a um mesmo domínio de problema. No intuito de representar a informação dessas várias fontes XML, o programador é obrigado a escolher entre muitas estruturas hierárquicas possíveis na criação dos esquemas de seus documentos XML. Um mesmo domínio de informação, desta maneira, pode então ser representado de diferentes formas nas diversas fontes de dados XML existentes. Por outro lado, verifica-se que as linguagens de consulta existentes são fortemente baseadas no conhecimento da estrutura de navegação do documento. Assim, ao consultar uma determinada informação semanticamente equivalente em várias fontes é necessário conhecer todos os esquemas envolvidos e construir consultas individuais para cada uma dessas fontes. Em um ambiente de integração, entretanto, é possível gerar um modelo global que representa essas fontes. Ao construir consultas sobre um modelo global, temos consultas integradas sobre estas fontes. Para se atingir esse objetivo, contudo, devem ser resolvidos os problemas da heterogeneidade de representação dos esquemas XML. Dessa forma, com base em uma abordagem de integração de esquemas, o presente trabalho define a linguagem de consulta CXQuery (Conceptual XQuery) que possibilita a construção de consultas sobre um modelo conceitual. Para possibilitar o retorno dos dados das fontes nas consultas feitas em CXQuery, foi desenvolvido um mecanismo de tradução da linguagem CXQuery para a linguagem de consulta XQuery 1.0. A linguagem XQuery 1.0 é umas das linguagens mais utilizadas para o acesso as fontes XML e permite que os dados possam ser retornados ao usuário. Para possibilitar essa tradução, foi definida uma metodologia de representação da informação de mapeamento através de visões XPath. Essa metodologia é relativamente eficaz no mapeamento das diferentes representações das fontes XML.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.