161 resultados para simulações numéricas
Resumo:
Neste projeto utilizamos tecnologias educacionais – vídeos, animações e simulações interativas de eventos físicos - como atividades complementares às aulas expositivas e demonstrativas, visando a aprendizagem significativa de Física Térmica no ensino médio. As tecnologias foram utilizadas na sala de informática, onde era possível a interação do aluno com a simulação. Para tanto, produzimos um hipertexto sobre os conteúdos de Física Térmica abordados, incluindo muitas figuras, animações e vídeos. Este trabalho teve como referencial teórico a teoria de aprendizagem significativa de David Ausubel, cuja principal característica é levar em conta o conhecimento prévio do aprendiz. Uma experiência didática foi realizada com o material produzido, envolvendo os alunos do segundo ano da Escola Estadual André Leão Puente, sendo que destes, 58 alunos – grupo experimental - foram submetidos às atividades complementares e os demais, 53 alunos – grupo de controle – foram submetidos somente ao método tradicional. Os resultados mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos estudantes do grupo de controle. A motivação para aprender, gerada pelas atividades complementares, e constatada por um questionário de avaliação, pode ter sido fundamental para atingir esses resultados. O hipertexto produzido e um teste para avaliação dos conhecimentos de Física Térmica estão incluídos no CD-rom, que integra esta dissertação, e poderá ser utilizado livremente por professores e alunos.
Resumo:
Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.
Resumo:
O acoplamento de radiação óptica em sistemas multicamadas tem sido objeto de diversas pesquisas, não somente acadêmicas, mas também para aplicações industriais, tanto na área de sensores ópticos, como na de processadores ópticos e na de comunicações ópticas. Existe uma variedade de técnicas que são exploradas nestes estudos. Nesta tese, focalizamos nossa atenção no acoplamento de radiação laser ou mesmo de luz branca incoerente a um filme tipo multicamadas e estudamos os mecanismos físicos que governam as reflexões e as perdas por absorção nas multicamadas, efeitos que normalmente não parecem quando a incidência ocorre diretamente do ar para o filme. A técnica que exploramos é conhecida como reflexão interna total atenuada, ATR. A presença de um filme fino metálico permite o estudo experimental de plasmons de superfície e do acoplamento a modos guiados do sistema multicamadas. Além dos estudos experimentais, apresentamos um cálculo teórico iterativo para a refletividade dos filmes do tipo multicamadas para um número qualquer de camadas, que apresenta vantagens computacionais no ajuste dos dados experimentais ou em simulações. Esta contribuição não necessita as aproximações encontradas em um grande número de trabalhos que envolvem sistemas mais simples. Apresentamos também o cálculo do fluxo de energia dentro de cada camada individual do sistema, o que nos permite determinar o tipo de modo acoplado e a sua localização. O método foi aplicado a diversos sistemas, quando uma das camadas foi modificada. Estes estudos foram realizados como função do ângulo de incidência e do comprimento de onda da radiação incidente para uma variedade de sistemas multicamadas. Nossa simulação teórica se mostra bastante adequada e útil para a projeção de sistemas multicamadas complexos com camadas metálicas e dielétricas para sensores óticos.
Resumo:
Neste trabalho nós investigamos as relações existentes entre a Variação de Dimensão Instável(Unstable Dimension Variability - UDV) e a dimensão do espaço de fases de uma rede de mapas acoplados com acoplamento difuso. damos suporte teórico e evidências numéricas para a afirmação de que a partir de certo valor fixo da dimensão não há presença de UDV.
Resumo:
A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.
Resumo:
O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.
Resumo:
Este trabalho trata do emprego do modelo de dano dúctil de Gurson e de alguns aspectos relativos a sua implementação computacional. Emprega-se como ponto de partida o programa Metafor, código de elementos finitos voltado para a simulação de problemas de conformação mecânica, contemplando portanto grandes deformações plásticas. Estudam-se alguns casos simples procurando identificar a influência de cada parâmetro do modelo de Gurson na resposta. É discutida a aplicação dos modelos de nucleação de vazios usualmente empregados em conjunto com a superfície de escoamento de Gurson em situações onde há reversão de solicitação. São propostas alterações nos modelos usuais de nucleação de forma a minorar resultados incoerentes verificados. Apresenta-se um algoritmo alternativo ao método de Newton-Raphson para a solução do sistema de equações associado à forma fraca das equações de equilíbrio, em situações onde a rigidez fica muito pequena. Tal algoritmo é implementado e testado. Um algoritmo de integração de tensões é apresentado e implementado, mostrando-se sua vantagem do ponto de vista de robustez, ou seja, obtenção da resposta correta a despeito do tamanho de incremento empregado. Também é discutido um procedimento para desconsiderar elementos que apresentem ruptura local Estudam-se problemas envolvendo geração de calor por deformação plástica em conjunto com a formulação do modelo de Gurson, mostrando que a consideração de acoplamento termo-mecânico com dano traz vantagens em algumas simulações. É discutida a implementação do modelo de Gurson sobre a versão tridimensional do Metafor, que contempla a formulação lagrangiana-euleriana arbitrária (LEA). Ao final, é feita uma simulação inicial do comportamento de espumas metálicas.
Resumo:
O presente trabalho teve como objetivos caracterizar e comparar a ictiofauna da praia das Pombas e da lagoa Negra no que diz respeito à composição, ocorrência, abundância e diversidade de espécies, relacionando estes fatores com os parâmetros ambientais, tais como temperatura da água, pluviosidade e fotoperíodo. Estes ambientes estão localizados no Parque Estadual de Itapuã, situado no município de Viamão, Rio Grande do Sul. A praia das Pombas é banhada pelo lago Guaíba e se caracteriza por ser um ambiente aberto, apresentar fundo arenoso e águas rasas. Já a lagoa Negra, apresenta uma pequena comunicação com a laguna dos Patos e tem como principais características suas águas escuras devido a grande quantidade de matéria orgânica em suspensão que torna a água ácida e pela grande quantidade de macrófitas aquáticas. As coletas foram realizadas mensalmente, entre junho de 2002 e julho de 2003. Os indivíduos foram coletados com o auxílio de picaré e redes de espera, sendo estabelecido um ponto de coleta em cada um dos ambientes. Foram capturados 2160 indivíduos na praia das Pombas pertencentes a 44 espécies, onde 14 foram consideradas constantes, 5 acessórias e 26 acidentais. Dentre as espécies mais abundantes e freqüentes na praia das Pombas destacam-se Astyanax fasciatus, A. jacuhiensis, Cyanocharax alburnus, Cyphocharax voga, Pachyurus bonariensis e Rineloricaria strigilata. Na lagoa Negra, foram capturados 15.557 indivíduos, distribuídos em 44 espécies, onde 21 foram consideradas constantes, 8 acessórias e apenas 15 acidentais. As espécies Astyanax eigenmanniorum, A. jacuhiensis, Cheirodon ibicuhiensis, C. interruptus, Cyanocharax alburnus, Cyphocharax voga, Hisonotus nigricauda, Hyphessobrycon bifasciatus, H. luetkenii e Pseudocorynopoma doriae foram as mais freqüentes e abundantes neste ambiente Temporalmente a maior abundância, tanto em número de espécies quanto em biomassa, ocorreu nos meses referentes à primavera e ao verão, nos dois locais amostrados, sendo os menores valores encontrados nos meses onde a temperatura foi mais baixa. As diversidades numéricas e por biomassa também foram mais elevadas nos meses quentes. A praia das Pombas mostrou-se significativamente mais diversa quanto ao número de indivíduos, devido a equitabilidade entre as espécies, enquanto a lagoa Negra apresentou uma maior dominância e menor diversidade devido a grande abundância de algumas espécies. Quanto à diversidade por biomassa, a lagoa Negra foi significativamente mais diversa, uma vez que nas Pombas, houve grande dominância de algumas espécies em relação ao peso. Foram estimados, ainda, alguns aspectos relacionados aos parâmetros populacionais como proporção sexual e dimorfismo entre o tamanho de machos e fêmeas para as espécies mais abundantes e freqüentes. Na praia das Pombas, apenas as populações de C. voga e P. bonariensis apresentaram proporção sexual diferente de 1:1 e as espécies de A. fasciatus e A. jacuhiensis apresentaram dimorfismo sexual, com fêmeas maiores que os machos. Na lagoa Negra, as espécies A. eigenmanniorum, C. ibicuhiensis e H. luetkenii mostraram diferenças quanto à proporção de machos e fêmeas. As espécies C. Ibicuhiensis e C. voga apresentaram dimorfismo sexual quanto ao tamanho. A utilização do picaré e das redes de espera neste estudo possibilitou a captura de indivíduos de diferentes classes de comprimento, sendo os menores indivíduos capturados com o picaré e os maiores, com as redes de espera. O picaré mostrou-se mais eficiente quanto ao número de espécies e de indivíduos capturados tanto na praia das Pombas quanto na lagoa Negra, sendo mais representativo neste último ambiente. A partir dos resultados encontrados neste trabalho, pode-se concluir que ocorre sazonalidade no padrão de distribuição das comunidades ícticas em questão. O aumento da diversidade e da abundância nos períodos mais quentes do ano pode ser resultado da maior atividade reprodutiva das espécies ou do aumento na disponibilidade de alimento neste período.
Resumo:
O presente trabalho apresenta um novo esquema de criptografia de chave pública baseado no emprego de funções para representar as mensagens original e cifrada. No esquema proposto – denominado Rafaella -, o processo de cifração consiste na aplicação de um deslocamento no argumento da função que representa a mensagem, de modo que se f(x) descreve a mensagem original, então f(x+z) representa a respectiva mensagem cifrada. O deslocamento z representa um número complexo que, no esquema proposto, representa a forma das chaves privadas dos participantes. A dificuldade da resolução do problema inversos concentra-se na obtenção das partes real e imaginária do deslocamento z, que pode ser efetuada através de método de força bruta, ou da resolução de um problema de contorno. A segunda alternativa envolve a resolução de equações diferenciais. Dentre os métodos disponíveis para a resolução de equações diferenciais, o emprego dos chamados grupos de Lie constitui, via de regra, a estratégia mais apropriada para a obtenção de soluções analíticas, que demandam menor tempo de processamento do que as formulações numéricas. Mesmo assim, a solução obtida através da utilização dos grupos de Lie requer elevado número de operações simbólicas.
Resumo:
Crescimento espacial tem sido um dos importantes fenômenos observados nas cidades contemporâneas, sendo a identificação de processos e padrões, de suas causas e conseqüências, um desafio para a ciência. Nesse caminho, esta pesquisa propõe um modelo de simulação de crescimento urbano dedicado a realizar simulações, incluindo de modo integrado fatores urbanos, naturais e institucionais, promovendo simultaneidade entre crescimento externo e interno a um espaço urbano preexistente, representados e modelados utilizando integradamente grafos, autômato celular e geotecnologias. Experimentos com modos de crescimento (axial, polar e difuso) e com cenários alternativos estão implementados, bem como são investigadas questões urbanas de conversão de território, de distribuição dos estoques construídos, de formação de periferias e vazios, de obsolescência e revitalização, de mono e policentralidade, de abrangência de funções urbanas e de influência da distância, de renaturalização e preservação ambiental, de limites de crescimento e problemas ambientais intra-urbanos, de ponderação de atributos, de crescimento difuso, fragmentação e compacidade. Estão também incluídas possibilidades de compressão de dados e alternativas de visualização de resultados, alcançando estudos exploratórios sobre forma urbana e sustentabilidade. O trabalho está dedicado inicialmente a fundamentar, construir e apresentar o modelo de simulação de crescimento denominado SACI – Simulador do Ambiente da Cidade®, depois a realizar simulações num caso real, em Pelotas, RS, quando são demonstrados os procedimentos de calibração, terminando com experimentos escolhidos para avançar na discussão do fenômeno do crescimento urbano. Esforços estão realizados para oferecer um instrumento de simulação com possibilidade de uso para além dos interesses exclusivos desta investigação, particularmente no campo do ensino e da prática do planejamento urbano municipal. Sendo assim, este argumento se dedica simultaneamente a documentar a trajetória de construção de um modelo de simulação de crescimento urbano, a explicitar sua aplicabilidade em casos de cidades reais e a contribuir para a compreensão teórica da dinâmica urbana e ambiental na cidade.
Resumo:
O objeto de estudo deste trabalho é uma avaliação dos impactos econômicos e ambientais de um possível acordo comercial da Área de Livre Comércio da Américas (ALCA) concomitantemente com as reduções de emissões de CO2 tratadas pelo Protocolo de Quioto. Acordos globais de redução de CO2 podem distorcer os resultados que seriam obtidos pelos acordos comerciais, e os acordos comerciais tendem a gerar mais emissões de CO2. Os cenários são construídos para a simulação de eliminação dos gravames tarifários entre os membros da ALCA bem como de redução de emissão de CO2 para os signatários do Protocolo, admitindo ainda a possibilidade de execução de um dos mecanismos de flexibilidade do Protocolo de Quioto – o comércio de emissões. O instrumento utilizado para as simulações - GTAP-E - é uma versão modificada do GTAP (Global Trade Analysis Project) desenvolvido pela Universidade de Purdue. O GTAP-E (energia), foi projetado para analisar assuntos relacionados ao uso de energia e impactos de políticas de mudança climática. Ele difere do modelo GTAP padrão principalmente pela descrição mais detalhada das possibilidades de substituição de uso entre as diferentes fontes de energia. Esse modelo utiliza uma base de dados que, além dos dados usualmente utilizados pelo GTAP padrão, inclui elasticidades de substituição para o uso dos commodities energia e quantidades de emissões de CO2 gerados pela queima dos combustíveis fósseis (carvão, petróleo cru e gás natural), e também pelo uso de produtos derivados do petróleo e geração de eletricidade Os resultados obtidos corroboraram a hipótese que a política ambiental de redução de emissões, apesar de contribuir para a diminuição de CO2 na atmosfera, de forma geral, afeta negativamente o bem-estar econômico dos países que abatem emissões, principalmente através do encarecimento das commodities de energia e a conseqüente redução do seu uso. Esse efeito é mais pronunciado em países cuja matriz energética é mais intensiva em carvão e petróleo. Para o Brasil, os resultados mostraram que a melhor estratégia para participar do processo de redução de emissões seria a de o país estar inserido diretamente no mecanismo de comércio de emissões. Essa situação traria ganhos de bemestar econômico, avaliados pela variação equivalente da renda, superiores, em comparação às alternativas em que o mesmo não participa de tal mecanismo.
Resumo:
Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.
Resumo:
Este trabalho estuda o transporte e a dispersão de SO2 (dióxido de Enxofre) e Material Particulado(PTS), emitidos pelas várias fontes da COPESUL, no Polo Petroquímico localizado em Triunfo, região metropolitana de Porto Alegre - RS, utilizando o modelo ISCST - Industrial Source Complex Term - Short Term, recomendado pela EPA para tratamento de dispersão. Neste estudo são apresentadas simulações para o período de 5 dias do ano de 2001, dias que apresentaram maiores concentrações ao nível do solo coletados no ponto receptor, sendo possível observar a dispersão da pluma de contaminantes e a localização dos máximos de concentração. Através do MNT(Modelo Numérico de Terreno), foi observado que a região analisada é relativamente plana, fazendo com que o modelo mostre resultados bem próximos a realidade, estando as fontes de emissão estudadas localizadas no centro do terreno. Os resultados indicam que os valores de NOx para o período estudado são os principais responsáveis pelo problema de poluição do ar na região, estes ultrapassaram em 2/5 dos casos o padrão secundário de 190 μg/m3. Os valores verificados foram de 198,65 μg/m3 no horário de 11 horas do dia 26/09/2001, e 218,59 μg/m3 no horário de 10 horas do dia 13/08/2001, estando os outros dentro dos limites exigidos pelo controle de qualidade do ar. Já para os poluentes SO2 e MP os padrões primário e secundário não foram ultrapassados em nenhum dos dias selecionados. Verificou-se que na posição em que a estação de recepção foi instalada, esta estava , na maioria dos dias fora da área modelada pela pluma de dispersão. Portanto os valores medidos não se referem as fontes da COPESUL e sim são provenientes de outras fontes de emissão da região do Polo Petroquímico do Sul como as indústrias de 2ª geração.
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
Braços robóticos articulados são cada vez mais utilizados hoje em dia e consistem de dispositivos mecânicos programáveis, equipados com sensores e atuadores sob o controle de um sistema computacional. Existem atualmente no mercado inúmeros fabricantes e modelos destes braços, cada um adequado a uma determinada utilização ou faixa de mercado. Para que se saiba operar devidamente este robô é necessário um período de aprendizagem. Essa necessidade pode ser suprida pelo emprego dos simuladores de braços robóticos.Desenvolver um simulador é uma atividade complexa, mas alguns elementos de sua estrutura e de seu comportamento são comuns a vários tipos de simuladores e podem idealmente ser reusados. Permitir reuso de código e de projeto é exatamente um dos principais fatores que motivaram a construção de um framework. Este trabalho descreve a definição e a construção do fwWorkCell , um framework que permita agilizar a construção destes simuladores. Tal agilidade será obtida através da implementação de um ambiente de edição e de classes genéricas para controle, visualização e programação dos robôs. A proposta deste framework inclui definição de classes genéricas e de controle, a construção de todo um ambiente de suporte à manipulação e visualização das células de trabalho e suas simulações e visa dar suporte à construção de uma grande variedade de simuladores. O framework proposto foi utilizado em uma aplicação real: através dele foi feita a migração de um simulador já existente.