1000 resultados para Satélites artificiais de navegação
Resumo:
Esta pesquisa teve como objetivo geral analisar a racionalidade que em-basa a formação de professores através de EaD, através de descrição de prática, nos cursos de formação de professores oferecidos a distância de uma instituição privada de ensino superior. Como objetivos específicos pretende identificar na rela-ção tutor aluno a racionalidade: prática ou técnica; relacionar dificuldades e/ ou faci-lidades no processo de transposição didático-metodológica no ambiente virtual en-tre tutor/aluno, frente à proposta da racionalidade prática. O trabalho foi desenvolvi-do no modelo qualitativo de investigação, como estudo de caso. Foram entrevista-dos 10 tutores que utilizam o ambiente virtual na modalidade à distância de uma instituição superior privada. A fundamentação teórica foi referenciada em Popke-witz, na análise da Reforma Educacional, e Boaventura Santos, com contribuições quanto à politização da tecnologia. Também contamos com Alarcão, Prestes, Brze-zinski e Namo de Mello, que tratam das possibilidades e perplexidades na formação de profissionais da educação a partir da LDB (Lei 9.394/96). Também com os estu-dos das novas tecnologias, como Macedo, Sancho, Lévy, Lemos, Palloff, Pratt, Ala-va, Preti, Pellanda e Lithwin. Dessa forma, a pesquisa dirige-se para um novo olhar sobre os processos semi-presenciais do ensinar e do aprender no contexto das tec-nologias digitais. O estudo sinalizou que o EaD ainda carece de atenção especial, em várias questões no processo educativo, entre elas, tempo de alunos e tutores e capacitação tecnológica. Assim, busca-se contribuir para a reflexão sobre essa te-mática tão contemporânea. Nessa perspectiva, o estudo não pretende se esgotar e sim, obter subsídios para futuros debates.
Resumo:
A Astronomia, como origem e, talvez, como fim de todas as Ciências, sempre esteve voltada à observação dos astros e à busca de novas técnicas e instrumentos que permitissem ampliar os limites e a qualidade destas observações. Dessa busca resultou o desenvolvimento do telescópio óptico, em 1608, por Galileu Galilei. Com o passar dos anos, esse instrumento foi sofrendo incontáveis aperfeiçoamentos, chegando aos nossos dias como um aparelho preciso e de sofisticada tecnologia. Apesar das fronteiras observacionais terem avançado para além do espectro visível, o telescópio óptico ainda é indispensável à Astronomia. O Brasil, embora não apresente condições meteorológicas ideais para observações astronômicas, possui observatórios ópticos de razoável qualidade, como o Laboratório Nacional de Astrofísica, LNA, em Minas Gerais, entre outros. Em seu extremo sul, no entanto, o País carece de bons instrumentos ópticos, destacando-se unicamente o telescópio da UFRGS instalado no Observatório do Morro Santana, em Porto Alegre. O aumento da iluminação artificial na Região Metropolitana de Porto Alegre e, conseqüentemente, da claridade do céu noturno tem praticamente inviabilizado a operação do Observatório. Assim, a escolha de novos locais para a futura instalação de telescópios ópticos no Estado é imprescindível. Acrescenta-se a isto o fato do ciclo climático desta região diferenciarse daquele das demais regiões do País, fato relevante, dado que um dos fatores determinantes na escolha de novos sítios para telescópios ópticos é a taxa de nebulosidade. Levantamentos in situ de nebulosidade são longos e custosos. Como alternativa, neste trabalho foi realizado um estudo estatístico do Estado, a partir da montagem de um banco de 472 imagens noturnas dos satélites GOES e MeteoSat. A combinação das imagens, por processo de superposição e cálculo de valores médios de contagens (brilho), à escala de pixel, forneceu informações em nível de préseleção, ou indicativo, de locais com altas taxas de noites claras. Foram cobertos os períodos de 1994-1995 e 1998-1999, com focalização nas áreas em torno de Bom Jesus, Vacaria e Caçapava do Sul. Como controle, foi também monitorada a área em torno do LNA em Minas Gerais. Ademais da demonstração metodológica, os dados orbitais indicaram que, na média destes anos, estas áreas são adequadas à instalação de observatórios astronômicos, pela conjugação dos fatores de nebulosidade e altitude.
Resumo:
Este trabalho se ocupa do problema da localização de sítios adequados para a operação de observatórios astronômicos. O constante crescimento das cidades e a urbanização de grandes áreas vizinhas é acompanhada por um aumento proporcional da iluminação artificial, o que resulta em níveis maiores de brilho do céu noturno. Isto tem consequências extremas para a astronomia óptica, a qual exige um céu escuro, e justifica buscas de novos sítios para a instalação de futuros telescópios ópticos. Um dos critérios mais importantes para sítios astronômicos, além de céu escuro, é uma alta proporção de céu claro, sem nuvens. Buscas de sítios astronômicos são estudos conduzidos ao longo de períodos de tempo de anos. É sugerido que imagens de satélites meteorológicos podem ser úteis para a seleção preliminar destes sítios. A metodologia utilizada é fundamentada em correções geométricas de imagens de dados orbitais das naves NOAA12 e NOAA14 e na soma de imagens obtidas em datas diferentes. As imagens foram coletadas pela estação de recepção instalada no Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia da UFRGS. Somando, pixel por pixel, imagens colhidas em datas diferentes, após correções geométricas, obtém-se médias temporais de cobertura de nuvens, o que é o equivalente moderno da construção de médias a partir de uma série temporal de dados meteorológicos de estações terrestres. Nós demonstramos que esta metodologia é factível para este tipo de dado, originário de órbitas de menor altitude e melhor resolução, se comparado com imagens vindas de satélites de órbitas altas, geoestacionários, com menor resolução, imagens estas de manipulação muito mais fácil, pois o ponto de observação tende a ser estável no tempo.
Resumo:
A gestão e a mensuração do risco operacional é uma preocupação crescente da comunidade bancária, de modo que a escolha adequada do modelo de alocação de capital para risco operacional pode tornar-se um diferencial competitivo. Este trabalho apresenta as vantagens da adoção de modelos causais para a gestão e mensuração do risco operacional e, ao investigar a aplicação de Redes Neurais Artificiais para tal propósito, comprova que o modelo causal chega a valores de capital mais alinhados à exposição ao risco da instituição financeira. Além disso, há a vantagem de que, quanto mais sensível a risco a metodologia de cálculo de capital for, maior será o incentivo para uma gestão apropriada dos riscos no dia-a-dia da instituição financeira, o que não apenas reduz sua necessidade de alocação de capital, quanto diminui suas perdas esperadas. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
Este trabalho apresenta um sistema de classificação de voz disfônica utilizando a Transformada Wavelet Packet (WPT) e o algoritmo Best Basis (BBA) como redutor de dimensionalidade e seis Redes Neurais Artificiais (ANN) atuando como um conjunto de sistemas denominados “especialistas”. O banco de vozes utilizado está separado em seis grupos de acordo com as similaridades patológicas (onde o 6o grupo é o dos pacientes com voz normal). O conjunto de seis ANN foi treinado, com cada rede especializando-se em um determinado grupo. A base de decomposição utilizada na WPT foi a Symlet 5 e a função custo utilizada na Best Basis Tree (BBT) gerada com o BBA, foi a entropia de Shannon. Cada ANN é alimentada pelos valores de entropia dos nós da BBT. O sistema apresentou uma taxa de sucesso de 87,5%, 95,31%, 87,5%, 100%, 96,87% e 89,06% para os grupos 1 ao 6 respectivamente, utilizando o método de Validação Cruzada Múltipla (MCV). O poder de generalização foi medido utilizando o método de MCV com a variação Leave-One-Out (LOO), obtendo erros em média de 38.52%, apontando a necessidade de aumentar o banco de vozes disponível.
Resumo:
O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.
Resumo:
Com o objetivo de estabelecer uma metodologia capaz segregar momentos de mercado e de identificar as características predominantes dos investidores atuantes em um determinado mercado financeiro, este trabalho emprega simulações geradas em um Mercado Financeiro Artificial baseado em agentes, utilizando um Algoritmo Genético para ajustar tais simulações ao histórico real observado. Para tanto, uma aplicação foi desenvolvida utilizando-se o mercado de contratos futuros de índice Bovespa. Esta metodologia poderia facilmente ser estendida a outros mercados financeiros através da simples parametrização do modelo. Sobre as bases estabelecidas por Toriumi et al. (2011), contribuições significativas foram atingidas, promovendo acréscimo de conhecimento acerca tanto do mercado alvo escolhido, como das técnicas de modelagem em Mercados Financeiros Artificiais e também da aplicação de Algoritmos Genéticos a mercados financeiros, resultando em experimentos e análises que sugerem a eficácia do método ora proposto.
Resumo:
Na modelagem de sistemas complexos, abordagens analíticas tradicionais com equações diferenciais muitas vezes resultam em soluções intratáveis. Para contornar este problema, Modelos Baseados em Agentes surgem como uma ferramenta complementar, onde o sistema é modelado a partir de suas entidades constituintes e interações. Mercados Financeiros são exemplos de sistemas complexos, e como tais, o uso de modelos baseados em agentes é aplicável. Este trabalho implementa um Mercado Financeiro Artificial composto por formadores de mercado, difusores de informações e um conjunto de agentes heterogêneos que negociam um ativo através de um mecanismo de Leilão Duplo Contínuo. Diversos aspectos da simulação são investigados para consolidar sua compreensão e assim contribuir com a concepção de modelos, onde podemos destacar entre outros: Diferenças do Leilão Duplo Contínuo contra o Discreto; Implicações da variação do spread praticado pelo Formador de Mercado; Efeito de Restrições Orçamentárias sobre os agentes e Análise da formação de preços na emissão de ofertas. Pensando na aderência do modelo com a realidade do mercado brasileiro, uma técnica auxiliar chamada Simulação Inversa, é utilizada para calibrar os parâmetros de entrada, de forma que trajetórias de preços simulados resultantes sejam próximas à séries de preços históricos observadas no mercado.
Resumo:
A abordagem de Modelos Baseados em Agentes é utilizada para trabalhar problemas complexos, em que se busca obter resultados partindo da análise e construção de componentes e das interações entre si. Os resultados observados a partir das simulações são agregados da combinação entre ações e interferências que ocorrem no nível microscópico do modelo. Conduzindo, desta forma, a uma simulação do micro para o macro. Os mercados financeiros são sistemas perfeitos para o uso destes modelos por preencherem a todos os seus requisitos. Este trabalho implementa um Modelo de Mercado Financeiro Baseado em Agentes constituído por diversos agentes que interagem entre si através de um Núcleo de Negociação que atua com dois ativos e conta com o auxílio de formadores de mercado para promover a liquidez dos mercados, conforme se verifica em mercados reais. Para operação deste modelo, foram desenvolvidos dois tipos de agentes que administram, simultaneamente, carteiras com os dois ativos. O primeiro tipo usa o modelo de Markowitz, enquanto o segundo usa técnicas de análise de spread entre ativos. Outra contribuição deste modelo é a análise sobre o uso de função objetivo sobre os retornos dos ativos, no lugar das análises sobre os preços.