935 resultados para Access (Computer Programs)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Medicina Veterinária - FMVZ
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Este empreendimento de pesquisa desenvolve uma análise acerca de cultura e conhecimento, duas categorias basilares no campo dos Estudos Culturais, no intuito de investigar como estas são concebidas nos textos publicados no GT de Currículo (GT-12) da Associação Nacional de Pós-Graduação (ANPEd), no período de 2000 a 2006. De modo adjacente, analiso as ênfases temáticas identificadas no conjunto dos textos e as conjugações temáticas e metodológicas realizadas pelos seus autores, de modo a obter um quadro analítico integral das categorias cultura e conhecimento tal como são abordadas. Como procedimentos metodológicos, constam o estudo teórico de Raymond Williams, Stuart Hall e Tomaz Tadeu da Silva, autores de referência internacional e nacional do campo dos Estudos Culturais, e a análise de dezesseis (16) textos, entre pôsteres e trabalhos completos, retirados do site da ANPEd www.anped.org.br no GT de Currículo, inseridos na perspectiva teórica dos Estudos Culturais. A partir das análises desenvolvidas, é possível afirmar que cultura e conhecimento são concebidos nestes textos como práticas de significação. Cultura não é mera transmissão de tradições, valores, costumes e saberes de uma geração à outra, antes, a cultura é da ordem dos sentidos e significados, isto é, refere-se a maneiras de interpretar e conceber o mundo e constrói-se a partir das relações que homens e mulheres estabelecem entre si. Do mesmo modo, o conhecimento também é construído, produzido pela cultura, pelos sujeitos que fazem cultura. Não é neutro, nem estático, porque o processo no qual é criado está permeado por interesses particulares, disputas, questões de poder. Em geral, cultura e conhecimento são analisados em textos que discutem os currículos culturais, em especial a mídia, em suas mais diversas modalidades computador, jogos eletrônicos, programas de TV e revistas. As conjugações teóricas mais recorrentes envolvem autores tais como Tomaz Tadeu da Silva, teórico mais acionado, Michael Foucault, Homi Bhabha, Stuart Hall e Jean-Claude Forquim, Gimeno Sacristán e Henry Giroux. As conjugações metodológicas mais utilizadas são as análises do discurso e análises documentais. Refletindo sobre as análises que os textos desenvolvem sobre o currículo, percebo dois grandes eixos de compreensão. Um no qual o currículo é concebido como teoria/prática cultural, capaz de produzir sujeitos e subjetividades e outro no qual há diferenciação entre currículo teórico ou oficial e currículo real; neste eixo, o currículo é concebido como um documento oficial apartado das experiências cotidianas dos alunos. Observo, deste modo, duas vertentes teóricas acentuarem-se dentro de um mesmo campo de pesquisa, a crítica e a pós-estruturalista, que convergem em alguns aspectos e divergem em outros, mas no que concerne às categorias cultura e conhecimento, parece haver um consenso no que se refere às relações intrínsecas destas com os processos de significação, produção de identidades, subjetividades e de afirmação e produção de diferenças.
Resumo:
O uso das Tecnologias da Informação e Comunicação -TIC no ambiente escolar, além de permitir o acesso a um universo de informações tão caótico quanto inimaginável, promoveu uma profunda transformação na relação de seus principais atores -professores e alunos - com o conhecimento. Desde o final da década de 1980 que, no Brasil, diversos programas surgiram com a finalidade de prover a educação pública de condições de igualdade com a educação privada, procurando através da inserção nas escolas da rede municipal e estadual de um ambiente tecnológico de aprendizagem com base em rede de computadores conectados a Internet, garantir o ansiado salto de qualidade do ensino público. A proposta desse trabalho é investigar se os professores de Matemática que atuam nas escolas da rede estadual em Belém/P A, que possuem Laboratório de Informática, estabelecem interações com esse ambiente na busca pela melhoria de sua práxis pedagógica, favorecendo a transmissão de informações, a construção de conhecimentos e de conceitos matemáticos.
Resumo:
Nos últimos anos, com o surgimento de novos serviços e equipamentos para o sistema de comunicação móvel com maiores larguras de banda de operação e ocupando espaços cada vez menores, o desenvolvimento de novas antenas de bandas largas e com dimensões pequenas se tornou um dos principais desafios das pesquisas na área de antenas. Neste trabalho, duas estruturas de antenas de bandas largas e dimensões reduzidas foram analisadas e otimizadas. Na primeira parte, a antena filamentar monopolo dobrado (Wire Built-in Folded Monopole Antenna, W-BFMA) foi investigada e teve sua largura de banda otimizada, conectada a linha de alimentação em diferentes impedâncias. Para modelar a estrutura da antena W-BFMA foi usado o método numérico dos momentos (Method of Moments - MoM), e para sua otimização os métodos: paramétrico, hill climbing e algoritmo genético (AG). Programas computacionais baseados na linguagem Matlab foram desenvolvidos para modelagem, otimização e cálculos das principais curvas características da antena W-BFMA. Na segunda parte, duas diferentes configurações de antenas monopolos planos usando a tecnologia de banda ultra-larga (Ultra- Wideband Antenna, UWB) foram investigadas e otimizadas com a ajuda do programa comercial Computer Simulation Technology (CST) Microwave Studio. Ambas as antenas UWB foram alimentadas por uma linha de microfita (microstrip line) na impedância de 50Ω. A antena UWB que apresentou melhor resultado teve o seu protótipo construído, as principais curvas características, tais como: perda de retorno, ganho, distribuição de corrente e diagrama de radiação foram analisadas. Os resultados simulados foram comparados com resultados obtidos experimentalmente.
Resumo:
Neste trabalho foram investigadas (FSSs) com ressonância de alto fator de qualidade (fator Q) e independência da polarização para uma onda plana com incidência normal. Estas FSSs são baseadas em um arranjo planar de metalizações sobre um substrato. Um alto fator Q é obtido por meio da excitação do trapped-mode e a independência da polarização, por meio da alta simetria rotacional dos elementos que compõe o arranjo. Para o projeto de FSSs com controle do regime de trapped-mode, foram utilizados substratos feitos de materiais com possibilidade de controle de suas propriedades elétricas ou magnéticas (ferrite magnetizada ou silício ativado oticamente). O arranjo de dois anéis concêntricos em um substrato dielétrico analisado neste trabalho apresenta uma ressonância de trapped-mode com fator Q em torno de 12 e transmitância máxima de 70 %. Com a utilização de um substrato de ferrite magnetizada nesse arranjo, é mostrado que é possível deslocar a frequência de ressonância do trappedmode em torno de 20 %, sem degradação significativa da ressonância de transmisão. Com o emprego de um substrato de silício ativado opticamente, é demonstrado que é possível realizar um chaveamento praticamente completo da banda de transmissão desse arranjo. Para realização das simulações computacionais foram utilizados o método dos momentos no domínio espectral (SDMM) e os programas comerciais Ansoft Designer 5 Planar EM e CST 2009.
Resumo:
O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.
Resumo:
Os métodos numéricos de Elementos Finitos e Equação Integral são comumente utilizados para investigações eletromagnéticas na Geofísica, e, para essas modelagens é importante saber qual algoritmo é mais rápido num certo modelo geofísico. Neste trabalho são feitas comparações nos resultados de tempo computacional desses dois métodos em modelos bidimensionais com heterogeneidades condutivas num semiespaço resistivo energizados por uma linha infinita de corrente (com 1000Hz de freqüência) e situada na superfície paralelamente ao "strike" das heterogeneidades. Após a validação e otimização dos programas analisamos o comportamento dos tempos de processamento nos modelos de corpos retangulares variandose o tamanho, o número e a inclinação dos corpos. Além disso, investigamos nesses métodos as etapas que demandam maior custo computacional. Em nossos modelos, o método de Elementos Finitos foi mais vantajoso que o de Equação Integral, com exceção na situação de corpos com baixa condutividade ou com geometria inclinada.
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
Pós-graduação em Televisão Digital: Informação e Conhecimento - FAAC
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Access control is a fundamental concern in any system that manages resources, e.g., operating systems, file systems, databases and communications systems. The problem we address is how to specify, enforce, and implement access control in distributed environments. This problem occurs in many applications such as management of distributed project resources, e-newspaper and payTV subscription services. Starting from an access relation between users and resources, we derive a user hierarchy, a resource hierarchy, and a unified hierarchy. The unified hierarchy is then used to specify the access relation in a way that is compact and that allows efficient queries. It is also used in cryptographic schemes that enforce the access relation. We introduce three specific cryptography based hierarchical schemes, which can effectively enforce and implement access control and are designed for distributed environments because they do not need the presence of a central authority (except perhaps for set- UP).
Resumo:
This study investigated the influence of top-down and bottom-up information on speech perception in complex listening environments. Specifically, the effects of listening to different types of processed speech were examined on intelligibility and on simultaneous visual-motor performance. The goal was to extend the generalizability of results in speech perception to environments outside of the laboratory. The effect of bottom-up information was evaluated with natural, cell phone and synthetic speech. The effect of simultaneous tasks was evaluated with concurrent visual-motor and memory tasks. Earlier works on the perception of speech during simultaneous visual-motor tasks have shown inconsistent results (Choi, 2004; Strayer & Johnston, 2001). In the present experiments, two dual-task paradigms were constructed in order to mimic non-laboratory listening environments. In the first two experiments, an auditory word repetition task was the primary task and a visual-motor task was the secondary task. Participants were presented with different kinds of speech in a background of multi-speaker babble and were asked to repeat the last word of every sentence while doing the simultaneous tracking task. Word accuracy and visual-motor task performance were measured. Taken together, the results of Experiments 1 and 2 showed that the intelligibility of natural speech was better than synthetic speech and that synthetic speech was better perceived than cell phone speech. The visual-motor methodology was found to demonstrate independent and supplemental information and provided a better understanding of the entire speech perception process. Experiment 3 was conducted to determine whether the automaticity of the tasks (Schneider & Shiffrin, 1977) helped to explain the results of the first two experiments. It was found that cell phone speech allowed better simultaneous pursuit rotor performance only at low intelligibility levels when participants ignored the listening task. Also, simultaneous task performance improved dramatically for natural speech when intelligibility was good. Overall, it could be concluded that knowledge of intelligibility alone is insufficient to characterize processing of different speech sources. Additional measures such as attentional demands and performance of simultaneous tasks were also important in characterizing the perception of different kinds of speech in complex listening environments.