69 resultados para 580107 Métodos pedagógicos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, desenvolvemos uma metodologia semi-analítica para solução de problemas de condução de calor bidimensional, não-estacionária em meios multicompostos. Esta metodologia combina os métodos nodal, com parâmetros concentrados, e a técnica da transformada de Laplace. Inicialmente, aplicamos o método nodal. Nele, a equação diferencial parcial que descreve o problema é integrada, transversalmente, em relação a uma das variáveis espaciais. Em seguida, é utilizado o método de parâmetros concentrados, onde a distribuição de temperatura nos contornos superior e inferior é substituída pelo seu valor médio. Os problemas diferenciais unidimensionais resultantes são então resolvidos com o uso da técnica da transformada de Laplace, cuja inversão é avaliada numericamente. O método proposto é usado na solução do problema de condução de calor, em paredes de edificações. A implementação computacional é feita, utilizando-se a linguagem FORTRAN e os resultados numéricos obtidos são comparados com os disponíveis na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi investigar a aplicação de métodos de ultra-som para avaliação e caracterização da microestrutura de materiais cerâmicos à base de alumina e sua associação com as propriedades mecânicas destes materiais. Para tanto, foram conformados por prensagem uniaxial corpos cerâmicos contendo 94,3% em peso de Al2O3. Os corpos cerâmicos foram sinterizados em forno de resistência elétrica em temperaturas que variaram entre 1100 e 1600 °C. A resistência mecânica e o KIc foram determinados por ensaios de flexão a quatro pontos. Para medir a resistência ao dano por choque térmico, os corpos cerâmicos foram colocados em um forno pré-aquecido na temperatura de teste e permaneceram nesta temperatura por 40 min, quando, então, foram resfriados bruscamente através da imersão dos corpos cerâmicos em água mantida a 0oC. A microestrutura dos corpos cerâmicos foi caracterizada por microscopia eletrônica de varredura e microscopia óptica. Para os ensaios de ultra-som foram utilizados transdutores piezelétricos de 2 e 4 MHz de freqüência nominal. A imagem resultante foi tratada via software e utilizouse um osciloscópio para padronização. Foram utilizados como parâmetros a velocidade da onda ultra-sônica e a sua atenuação. Os resultados indicaram a correlação entre as propriedades acústicas do material com a sua microestrutura e com suas propriedades mecânicas, tais como, resistência mecânica, módulo de elasticidade e dano por choque térmico. Foi possível propor equações relacionando a resistência mecânica com a variação do coeficiente de atenuação e da velocidade de propagação das ondas ultra-sônicas. Sugere-se também a possibilidade de utilização do coeficiente de atenuação para a determinação da confiabilidade do material cerâmico e o seu uso para a estimativa de vida útil do material sob carga constante ou submetido a choque térmico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de análise de solo Mehlich-1 em uso no RS e SC não é adequado para a avaliação da disponibilidade de fósforo em solos adubados recentemente com fosfatos naturais, além de, na comparação com o método da resina de troca iônica, freqüentemente apresentar coeficientes de determinação entre fósforo extraído do solo e parâmetros de plantas menores. Questiona-se também a adequaçãodos teores críticos de fósforo e potássio do solo e as doses de fertilizantes recomendadas atualmente, com base em calibrações feitas entre as décadas de 1960 a 1980, sob sistema convencional e amostragem da camada 0-20 cm de profundidade, para o sistema de plantio direto, com amostragem na camada 0-10 cm.Para equacionar alguns dos aspectos mencionados foram feitos três estudos. No primeiro, correlacionou-se o fósforo extraído, pelos métodos Mehlich-1 e resina de troca iônica, de 100 amostras de solos com diferentes classes de textura e teores de fósforo, com o objetivo de obter um índice de equivalência entre o fósforo determinado por ambos os métodos. No segundo estudo, foram enterradas lâminas de resina para avaliar a capacidade da resina em estimar a disponibilidade de fósforo para as plantas de milho e arroz em diferentes estádios de desenvolvimento. No terceiro estudo, utilizaram-se resultados de experimentos com doses de fósforo e potássio, cultivados com soja, trigo e milho, para re-calibrar os teores críticos de fósforo e potássio do solo pelo método Mehlich-1, e calibrar os resultados obtidos com o método Mehlich-3 e resina Os resultados obtidos no estudo 1 não permitiram estabelecer um índice de equivalência analítico entre os métodos Mehlich-1 e resina, pois a extração depende também da interação entre teores de fósforo e argila do solo. O método da resina enterrada foi eficiente para determinar a disponibilidade de fósforo para o arroz em solos inundados, mas pode não ser adequado para a cultura do milho. Os teores críticos de fósforo e potássio utilizados atualmente para recomendação de adubação estão subestimados, tanto para as amostras na camada 0-20, como na 0-10 cm de profundidade. As doses de fósforo e potássio, recomendadas para as culturas soja e milho, também estão subestimadas. Os coeficientes de determinação, obtidos entre o fósforo e o potássio determinados pelos métodos Mehlich-1 e resina e o rendimento das culturas soja, milho e trigo, foram maiores do que os obtidos com o Mehlich-3 para mesma relação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho procuramos analisar alguns métodos iterativos e os processos de aceleração na solução lineares grandes e esparsos, associando o uso de alguns pré-condicionadores, tais como os métodos de fatoração incompleta. De forma mais específica, nos detivemos no estudo deos métodos de fatoração incompleta LU, ou ILU, e o método de Cholesky incompleto. Para isso procuramos antes definir algumas especificidades sobre esses métodos, tais como, crtérios de existência, limitação. Alguns fatores analisam tais problemas e sugerem algumas técnicas de conserto, ou seja, algumas maneiras de eliminar tais falhas para que os métodos de iteração possam ser utlizados para determinar soluções mais próximas da solução real. Procedemos a uma revisão teórica de alguns dos métodos iterativos, dos pré-condicionadores. Jacobi, fatoração incompleta LU e fatoração incompleta de Cholesky e a sua associação com os métodos iterativos GMRES e Gradiente Conjugado. Utilizando os pré-condionadores associados aos métodos iterativos citados e fixando alguns parâmetros de parada, aplicamos algusn testes. Os resultados e a análise dos mesmos encontram-se neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A leflunomida é um pró-fármaco anti-reumático encontrado na forma de comprimidos revestidos com nome comercial ARAVA que, in vivo, é rápida e extensamente convertida a seu metabólito ativo A77 1726. Considerando a ausência de metodologia de controle de qualidade na literatura para a leflunomida, foram desenvolvidos métodos de caracterização e quantificação da leflunomida matéria-prima e na forma de comprimido, além de estudo preliminar de sua estabilidade. As técnicas de ponto de fusão, espectroscopia no IV, RMN 1H e 13C e CLAE associada a detector de arranjo de diiodos foram utilizadas para identificação e caracterização da leflunomida. O A77 1726 foi sintetizado e caracterizado pelas técnicas de espectroscopia no IV, RMN 1H e 13C, CLAE e DSC. Foi desenvolvido e validado método analítico para quantificação da leflunomida em comprimidos por CLAE utilizando coluna C18, ACN:água (50:50) como fase móvel e detecção em 254 nm. O método apresentou parâmetros cromatográficos adequados e parâmetros de desempenho analítico satisfatórios, com limite de detecção de 10 ng/mL. Método por espectroscopia derivada no UV foi desenvolvido e validado como alternativa para quantificação da leflunomida em comprimidos. A comparação do método por UV derivada com a CLAE, para determinação da leflunomida em comprimidos, mostrou que os métodos são intercambiáveis, creditando a técnica de UV para testes de controle de qualidade de rotina. Foram realizados estudos de degradação forçada dos comprimidos de leflunomida submetendo amostras à temperatura de 80 ºC ou exposição à radiação UV a 254 nm com lâmpada germicida. O principal produto de degradação encontrado foi o A77 1726. Além disso, outro produto de degradação, com tempo de retenção de 5,5 min (CLAE), apresentou quantidades significativas no estudo de degradação térmica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segurança dos alimentos é uma preocupação mundial e um fator importante na comercialização de produtos de origem animal. A presença de Salmonella sp. em suínos ao abate e em produtos do tipo frescal podem representar um risco para a saúde do consumidor. A análise de risco prevê a avaliação de diferentes fatores, entre eles a quantificação do microrganismo presente no alimento. A partir disso, a contribuição do presente estudo foi buscar estabelecer um método confiável de quantificação de Salmonella sp. em produtos suínos, uma vez que uma das etapas da análise de risco prevê a quantificação do perigo. No caso de Salmonella sp., a técnica da estimativa do Número Mais Provável (NMP) tem sido adotada. Em uma primeira fase desse trabalho, amostras foram quantificadas, individualmente, com três amostras de Salmonella Typhimurium (ATTCC15290 e 2 amostras de suínos) em três diferentes contagens, 101, 102 e 103 UFC. Para o método A, as amostras quantificadas foram adicionadas a 225 mL de água peptonada tamponada, sendo, posteriormente, fracionadas em 3 alíquotas de 50mL, 5mL e 0,5mL. Para o método B, a amostra fortificada foi diluída em água peptonada tamponada até 10-3, sempre em triplicata. Na segunda fase, foram testadas amostras naturalmente contaminadas, utilizando as mesmas metodologias usadas na primeira fase. Todas as alíquotas de ambos métodos foram incubadas a 370C por 18 horas. Após, cada alíquota foi semeada em caldo Rappaport-Vassiliadis (RV) e incubadas à 420C por 24 h e após, em àgar Xylose-Lysine-Tergitol 4 (XLT4) à 370C por 48 h. Colônias suspeitas foram confirmadas por testes bioquímicos. O número de placas positivas para Salmonella sp. foi utilizado para o cálculo do Número Mais Provável, utilizando tabela apropriada. Na segunda fase, os dois métodos foram avaliados em 20 amostras naturalmente contaminadas, mantidas congeladas por até 115 dias. Em 45 ensaios conduzidos, para cada método, em amostras de lingüiça de carne suína contaminadas artificialmente, 38 do método A e 41 do método B resultaram em NMP (95% de intervalo de confiança) concordante com número de UFC de Salmonella inoculado. A maioria das amostras naturalmente contaminada de massa de embutido apresentaram contagens <10NMP/g. A variabilidade encontrada entre os valores de NMP médio foi bastante elevada, tanto entre os métodos como entre repetições de um mesmo método. Isto reflete uma das limitações do método de NMP para estimar a contagem de microrganismos e deverá ser considerada quando o método for aplicado em alimentos naturalmente contaminados e quando aplicado em um estudo de análise de risco. Uma vez que o método B foi o que demonstrou valores médios de NMP mais próximos das quantidades inoculadas, sugere-se que este seja adotado em estudos futuros de quantificação de Salmonella sp. em produtos de origem suína.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A identificação antecipada do comportamento da demanda de veículos novos na extremidade da rede de distribuição é imprescindível para implementação de um sistema de produção puxada pela demanda. Previsões confiáveis, obtidas nas concessionárias, conferem aos fabricantes maior sensibilidade diante das peculariedades locais da demanda e reduzem as incertezas da produção em larga escala. A obtenção de previsões consistentes requer, porém, o emprego de métodos formais. Os profissionais responsáveis pela elaboração de previsões nas concessionárias desconhecem, em grande parte, os métodos de forecasting abordados na literatura. Essa dissertação visa o desenvolvimento de um sistema formal para elaboração de previsões de demanda de veículos novos em concessionárias. Em estudo de caso, conduzido em uma concessionária da marca Volkswagen, modelos estatísticos de Box-Jenkins e de suavização exponencial são aplicados para gerar previsões quantitativas das vendas de veículos novos. Previsões qualitativas, correspondentes ao julgamento de especialistas no segmento, são formalizadas através do método Delphi. Finalmente, as previsões quantitativas e qualitativas são combinadas matematicamente e comparadas. Tal comparação demonstra que as vantagens inerentes a cada método podem ser absorvidas para proporcionar previsões mais acuradas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foram investigados diferentes métodos de preparação de amostra para a determinação de níquel e vanádio em óleo cru usando a espectrometria de absorção atômica com forno de grafite (GF AAS). Investigou-se o uso de xileno como diluente, o qual foi inadequado devido à baixa estabilidade de níquel nas soluções e resultando na contaminação do equipamento. As soluções diluídas em isobutilmetilcetona apresentaram melhor estabilidade, mas não houve reprodutibilidade das medidas com os padrões orgânicos de níquel. Melhores resultados foram obtidos com emulsões óleo-em-água, usando Triton X-100 como surfactante. Também foi estudado o uso de padrões aquosos (inorgânicos) para o preparo das emulsões. Após o estabelecimento de curvas de pirólise para padrão e amostra de óleo cru, observou-se diferença no comportamento térmico do níquel na matriz de óleo cru. Foi então realizada uma investigação usando um espectrômetro de absorção atômica com fonte contínua de alta resolução (HR-CS AAS), equipamento com elevada capacidade de correção de fundo, e constatou-se que cerca de 50 % do analito é perdido em temperaturas abaixo de 400 ºC, enquanto que o restante é termicamente estável até pelo menos 1200 ºC. A fim de resolver o problema de perda de níquel volátil, foi investigado o uso de paládio como modificador químico. Através de curvas de pirólise com e sem paládio, observou-se que a mesma perda também ocorreu para o vanádio. Após a otimização da melhor quantidade de paládio, verificou-se que foi necessária uma quantidade de 20 µg de paládio para estabilização de níquel e vanádio. A determinação de níquel e vanádio total em amostras de óleo cru foi realizada usando-se paládio como modificador químico. A especiação destes elementos foi possível através da determinação das espécies estáveis, provavelmente compostos salinos não porfirínicos de níquel e vanádio, sem a adição de paládio, e a fração de compostos voláteis (provavelmente porfirinas de níquel e vanádio) foi calculada por diferença. Estabeleceram-se as figuras de mérito obtendo-se valores de massa característica de 19 e 33 pg e limite de detecção de 43 e 113 pg para níquel e vanádio, respectivamente. Esses resultados são compatíveis com dados reportados na literatura. A exatidão deste procedimento foi verificada pela análise dos materiais de referência certificados de metais traço em óleo residual (SRM 1634c) para níquel e vanádio e o petróleo (RM 8505) somente para vanádio e também por comparação com os resultados obtidos por HR-CS AAS para várias amostras de óleo cru. A aplicação do teste estatístico t-student aos resultados de níquel e vanádio total obtidos por GF AAS e HR-CS AAS mostrou que os mesmos não são significativamente diferentes a um nível de 95% de confiança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Inteligência Artificial é uma área da computação onde se está constantemente desenvolvendo pesquisas em software educacionais, principalmente os Sistemas Tutores Inteligentes (STI). Esses sistemas têm a capacidade de se adaptarem às particularidades de cada aluno, proporcionando assim, ambientes que facilitam a aprendizagem do usuário. Recentemente foi incorporada a tecnologia de agentes na modelagem do STI e nos ambientes educacionais na Internet. Estes agentes são denominados pedagógicos quando estão ligados a um ambiente onde existe uma sociedade de agentes que compõem um sistema de ensino-aprendizagem. Este texto apresenta um modelo de adaptação para ambientes genéricos de ensino, composto por agentes pedagógicos. A proposta é baseada em estudos relacionados com sistemas hipermídia adaptativos, sistemas tutores inteligentes, sistemas multiagentes e agentes pedagógicos. Inicialmente, o texto descreve o modelo. Logo após, é apresentada a implementação dos agentes os quais tem como tarefa prover a adaptação do ensino, sendo responsáveis em fornecer o caminho mais efetivo para a aprendizagem do aluno. Os agentes do modelo são denominados Agente Tutor, Agente Perfil e Agente de Comunicação. A realização da adaptação da instrução às características individuais do aprendiz implica o sistema conhecer: os padrões cognitivos de aprendizagem do aluno, traduzidos como estilos de aprendizagem e as suas implicações pedagógicas; e a modelagem das características do aprendiz: nível de conhecimento, metas, experiência e preferências do aprendiz. Finalmente, o texto descreve um estudo de caso, onde o modelo proposto foi integrado num ambiente de aprendizagem, e validado numa disciplina virtual a fim de avaliação de seus objetivos.