14 resultados para Método Eletromagnético Marinho de Fonte Controlada
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
Resumo:
Esta pesquisa tem como tema a avaliação de ferramentas de mineração de dados disponíveis no mercado, de acordo com um site de descoberta do conhecimento, chamado Kdnuggets (http://www.kdnuggets.com). A escolha deste tema justifica-se pelo fato de tratar-se de uma nova tecnologia de informação que vem disponibilizando diversas ferramentas com grandes promessas e altos investimentos, mas que, por outro lado, ainda não é amplamente utilizada pelos tomadores de decisão das organizações. Uma das promessas desta tecnologia é vasculhar grandes bases de dados em busca de informações relevantes e desconhecidas e que não poderiam ser obtidas através de sistemas chamados convencionais. Neste contexto, realizar uma avaliação de algumas destas ferramentas pode auxiliar a estes decisores quanto à veracidade daquilo que é prometido sem ter de investir antes de estar seguro do cumprimento de tais promessas. O foco da pesquisa é avaliar sistemas que permitem a realização da análise de cesta de supermercado (market basket analysis) utilizando bases de dados reais de uma rede de supermercados. Os seus objetivos são: avaliar ferramentas de mineração de dados como fonte de informações relevantes para a tomada de decisão; identificar, através da revisão de literatura, as promessas da tecnologia e verificar se tais promessas são cumpridas pelas ferramentas; identificar e caracterizar ferramentas de mineração de dados disponíveis no mercado e comparar os tipos de resultados gerados pelas diferentes ferramentas e relatar problemas encontrados durante a aplicação destas ferramentas. O desenvolvimento do trabalho segue o método estudo de caso múltiplo: os dados foram coletados a partir da aplicação das ferramentas às bases de dados e da entrevista com tomadores de decisão da empresa. Foram seguidos procedimentos já utilizados de avaliação de sistemas para a realização desta pesquisa. A partir da análise dos dados coletados, pôde-se conhecer alguns problemas apresentados pelas ferramentas e concluiu-se que as ferramentas, que foram utilizadas neste trabalho, não estão prontas para serem disponibilizadas no mercado.
Resumo:
O objetivo deste trabalho é estudar os efeitos eletromagnéticos e fluido-dinâmicos induzidos no aço, decorrentes do uso de um agitador eletromagnético. Para tal, foi proposta a construção de um modelo numérico que resolva, de forma acoplada, os problemas de eletromagnetismo e fluido-dinâmica. O modelo numérico do problema eletromagnético, em elementos finitos, foi construído utilizando-se o software Opera-3d/Elektra da Vector Fields. O mesmo foi validado com medidas experimentais de densidade de fluxo magnético feitas na usina. O escoamento decorrente da agitação eletromagnética foi resolvido fazendo-se o acoplamento das forças de Lorentz com as equações de Navier-Stokes. Essas últimas foram resolvidas pelo método de volumes finitos, usando-se o software CFX-4 da AEA Technology. O modelo eletromagnético mostrou que existe um torque máximo dependente da freqüência do campo magnético. Também foi observado que a força magnética aumenta em quatro vezes seu valor, quando a corrente é duplicada. O perfil de escoamento produzido no molde, sob agitação eletromagnética, indica, que as situações de lingotamento testadas, não propiciam o arraste da escória. A velocidade crítica de arraste, determinada via modelo físico, não foi atingida para nenhum caso testado. O modelo fluido-dinâmico e térmico apresentou um aumento do fluxo de calor cedido pelo fluido para a casca solidificada com o uso do agitador eletromagnético. Como conseqüência, observou-se uma queda na temperatura do banho. Também foi observado, que o uso do agitador propicia a remoção de inclusões das camadas mais externas do tarugo. Ao mesmo tempo, notou-se que o uso do agitador aumenta o índice de remoção de inclusões para as duas seções de molde analisadas.
Resumo:
No intuito de validar seus projetos de sistemas integrados, o Grupo de Microeletrônica da UFRGS tem investido na inserção de estruturas de teste nos núcleos de hardware que tem desenvolvido. Um exemplo de tal tipo de sistema é a “caneta tradutora”, especificada e parcialmente desenvolvida por Denis Franco. Esta caneta se utiliza de um microcontrolador 8051 descrito em VHDL, o qual ainda carece de estruturas dedicadas com funções orientadas à testabilidade. Este trabalho exemplifica a integração de teste em um circuito eletrônico préprojetado. Neste caso específico, foi utilizado o microcontrolador 8051 fonte compatível que será inserido no contexto da caneta tradutora. O método utilizado apoiou-se na norma IEEE1149.1, destinada a definir uma infra-estrutura baseada na técnica do boundary scan para o teste de placas de circuito impresso. São apresentadas características de testabilidade desenvolvidas para o microcontrolador, utilizando-se a técnica do boundary scan em sua periferia e a técnica do scan path em seu núcleo. A inserção destas características de teste facilita a depuração e testes em nível de sistema, imaginando-se o sistema como algo maior, fazendo parte do sistema da caneta tradutora como um todo. São elaborados exemplos de testes, demonstrando a funcionalidade do circuito de teste inserido neste núcleo e a possibilidade de detecção de falhas em pontos distintos do sistema. Finalmente, avalia-se o custo associado à integração desta infra-estrutura de teste, tanto em termos de acréscimo de área em silício, quanto em termos de degradação de desempenho do sistema.
Resumo:
O objetivo deste trabalho é obter uma nova solução analítica para a equação de advecção-difusão. Para tanto, considera-se um problema bidimensional difusivo-advectivo estacionário com coeficiente de difusão turbulenta vertical variável que modela a dispersão de poluentes na atmosfera. São utilizados três coeficientes difusivos válidos na camada limite convectiva e que dependem da altura, da distância da fonte e do perfil de velocidade. A abordagem utilizada para a resolução do problema é a técnica da Transformada Integral Generalizada, na qual a equação transformada do problema difusivo-advectivo é resolvida pela técnica da Transformada de Laplace com inversão analítica. Nenhuma aproximação é feita durante a derivação da solução, sendo assim, esta é exata exceto pelo erro de truncamento. O modelo ´e avaliado em condições moderadamente instáveis usando o experimento de Copenhagen. Apresentam-se os resultados numéricos e estatísticos, comparando os resultados obtidos com dados experimentais e com os resultados da literatura. O modelo proposto mostrou-se satisfatório em relação aos dados dos experimentos difusivos considerados.
Resumo:
Neste trabalho, apresentamos uma solução analítica para as equações difusivas unidimensionais da Teoria Geral de Perturbação em uma placa heterogênea, isto é, apresentamos as soluções analíticas para os problemas de autovalor para o fluxo de nêutrons e para o fluxo adjunto de nêutrons, para o cálculo do fator de multiplicação efetivo (keff), para o problema de fonte fixa e para o problema de função auxiliar. Resolvemos todos os problemas mencionados aplicando a Transformada de Laplace em uma placa heterogênea considerando um modelo de dois grupos de energia e realizamos a inversão de Laplace do fluxo transformado analiticamente através da técnica da expansão de Heaviside. Conhecendo o fluxo de nêutrons, exceto pelas constantes de integração, aplicamos as condições de contorno e de interface e resolvemos as equações algébricas homogêneas para o fator de multiplicação efetivo pelo método da bissecção. Obtemos o fluxo de nêutrons através da avaliação das constantes de integração para uma potência prescrita. Exemplificamos a metodologia proposta para uma placa com duas regiões e comparamos os resultados obtidos com os existentes na literatura.
Resumo:
O objetivo deste trabalho consiste em estender o método LTSN à solução do problema adjunto de transporte de nêutrons. A solução adjunta é interpretada fisicamente como uma função importância que designa a capacidade de contribuição de cada cela do espaço de fase para um funcional resposta. A derivação desta interpretação, através do princípio variacional, está sucintamente apresentada. Surgida da necessidade de generalização da fonte adjunta, também propõe-se uma nova formulação LTSN capaz de resolver problemas de transporte, tanto direto quanto adjunto, com fonte arbitrária, para elevada ordem de quadratura em geometria de placa. Esta nova formulção inspira-se na propriedade de invariância de projeção dos meios isotrópicos mas também é válida para os meios anisotrópicos. Todos os resultados apresentados pelas simulações numéricas de problemas adjuntos são calculados pela nova formulação LTSN e são comparados ou com a definição de função importância ou pelas relações de reciprocidade ou pelo código ANISN.
Tipagem HLA pelo método SSP/PCR controle de qualidade dos testes realizados no serviço de imunologia
Resumo:
Ao situar-se no âmbito das ciências sociais, este estudo está orientado no sentido de historicizar um conteúdo da Educação Física de forma a apreender suas origens, desdobramentos e fundamentalmente suas implicações à Educação Física brasileira. A opção pelo Método Francês se deu em função da constatação da importância que este adquiriu no Brasil, não apenas por ter sido conteúdo hegemônico da Educação Física por um longo período de tempo mas, principalmente, porque pela maneira com que se desenvolveu acabou deixando marcas profundas no fazer pedagógico dessa disciplina curricular. Através do aporte teórico-metodológico privilegiado pelo estudo, pude observar que o Método Francês esteve voltado para a formação do soldado combatente e do trabalhador produtivo, sendo orientado por uma matriz biológica e respaldado por uma abordagem positivista de ciência onde o movimento humano foi entendido a partir de seu caráter anátomo-mecânico e os homens e mulheres percebidos unicamente pela sua dimensão biológica. No que se refere à adoção e oficialização do Método Francês no Brasil, percebi que esteve direcionado para o aprimoramento da saúde, o fortalecimento da raça, a consolidação de certas disciplinas e a manutenção da ordem. Razão pela qual foi obrigatório nas instituições escolares, onde traduziu a mesma orientação representando, à nível das atividades físicas, uma transposição do trabalho realizado na caserna à escola.
Resumo:
Este trabalho apresenta um estudo de fluxo de água em barragens de terra, em regimes permanente e transiente, com a utilização do Método de Elementos Finitos. No estudo de fluxo em regime permanente duas formas de abordar o problema são apresentadas e comparadas. A primeira considera, para a discretização da malha de elementos finitos, somente a região saturada, de maneira que a linha freática é obtida através de ajustes desta malha de elementos finitos. A segunda considera toda a região saturada-insaturada, sendo discretizado todo o domínio físico da barragem. A malha de elementos finitos não é modificada ao longo das iterações e a linha freática é obtida por interpolação dentro dos elementos, em função dos valores nodais do potencial de pressões. O desenvolvimento teórico das equações utilizadas para as duas formas de abardagem é apresentado, mostrando onde elas diferem entre si. No estudo de fluxo em regime transiente é utilizado apenas o esquema de malha fixa de elementos finitos.
Resumo:
O objetivo deste trabalho é desenvolver um modelo computacional, baseado no método dos elementos finitos, para o estudo de peças de concreto armado e protendido submetidas a estados planos de tensão. O estudo abrange situações de carga de curta e longa duração, onde consideram-se fluência e retração do concreto e relaxação do aço. São utilizados modelos constitutivos elasto-viscoplásticos para descrever o comportamento dos materiais. Implementou-se um modelo de camadas superpostas para melhor representar o comportamento do concreto, onde o material é composto de diversas camadas que sofrem a mesma deformação. Cada camada possui diferentes características materiais e a tensão total é obtida pela soma das diferentes contribuições de cada camada. Para a fissuração da concreto, utilizou-se um modelo de fissuras distribuídas, que leva em conta a contribuição do concreto entre fissuras. Tanto a amadura passiva como a de pratensão são introduzidas no modelo como uma linha de material mais rígido dentro do elemento de concreto. Os deslocamentos ao longo da armadura são referenciados aos deslocamentos nodais do elemento de concreto. Deste modo, obtém-se uma matriz de rigidez para a armadura com as mesmas dimensões que a matriz de rigidez do elemento de concreto, A matriz de rigidez do elemento concreto-aço é a soma das duas matrizes. Considera-se aderência perfeita entre o concreto e o aço. Os resultados obtidos com esse programa computacionai são comparados com valores experimentais disponíveis.