1000 resultados para inteligência computacional
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
A área da Tecnologia da Informação no Brasil sofre um problema latente com a falta de planejamento e atrasos constantes em projetos, determinando para os profissionais vinculados a ela um ambiente altamente desmotivador para a condução de seus trabalhos. Supõe-se que o que possa corroborar para tal problema seja a formação educacional deficitária dos indivíduos que atuam neste segmento, principalmente aqueles relacionados a cargos executivos e que estejam exercendo atividades de gestão. De acordo com teóricos como Edgard Morin (2004), em se tratando de educação fundamental, média ou superior os aspectos educacionais podem ser considerados deficitários justamente porque, ao segmentar o conhecimento, eles promovem uma alienação do indivíduo, eliminando sua capacidade criativa e reflexiva. Seria interessante, portanto, que ao avaliar a capacidade cognitiva de uma pessoa, a inteligência a ser mensurada não seja abordada através de um único espectro de conhecimento, mas através de muitos deles. A teoria das Inteligências Múltiplas, desenvolvida por Howard Gardner vem de encontro a essa necessidade, pois de acordo com o autor, a inteligência de um indivíduo deve ser mensurada através de uma gama de nove espectros: Linguística, Musical, Lógico-Matemática, Espacial, Corporal Cinestésica, Interpessoal, Intrapessoal, Naturalista e Existencial. Isto posto, este trabalho aborda uma metodologia computacional para classificação e descoberta de padrões em indivíduos, sejam esses alunos ou profissionais graduados, de uma determinada área. Além da metodologia, foi proposto um estudo de caso, considerando cursos superiores relacionados à área de Computação no Brasil.
Resumo:
Social networks rely on concepts such as collaboration, cooperation, replication, flow, speed, interaction, engagement, and aim the continuous sharing and resharing of information in support of the permanent social interaction. Facebook, the largest social network in the world, reached, in May 2016, the mark of 1.09 billion active users daily, draining 161.7 million hours of users’ attention to the website every day. These users share 4.75 billion units of content daily. The research presented in this dissertation aims to investigate the management of knowledge and collective intelligence, from the introduction of mechanisms that aim to enable users to manage and organize current information in the feeds from Facebook groups in which they participate, turning Facebook into a collective knowledge and information management device that goes far beyond mere interaction and communication among people. The adoption of Design Science Research methodology is intended to instill the "genes" of collective intelligence, as presented in the literature, in the computational artifact being developed, so that intelligence can be managed and used to create even more knowledge and intelligence to and by the group. The main theoretical contribution of this dissertation is to discuss knowledge management and collective intelligence in a complementary and integrated manner, showing how efforts to obtain one also contribute to leveraging the other.
Resumo:
One of the main referring subjects to the solar energy is how to compare it economically with other sources of energy, as much alternatives as with conventionals (like the electric grid). The purpose of this work was to develop a software which congregates the technical and economic main data to identify, through methods of microeconomic analysis, the commercial viability in the sizing of photovoltaic systems, besides considering the benefits proceeding from the proper energy generation. Considering the period of useful life of the components of the generation system of photovoltaic electricity, the costs of the energy proceeding from the conventional grid had been identified. For the comparison of the conventional sources, electric grid and diesel generation, three scenes of costs of photovoltaic panels and two for the factor of availability of diesel generation had been used. The results have shown that if the cost of the panels is low and the place of installation is more distant of the electric grid, the photovoltaic system becomes the best option.
Resumo:
Os sistemas biológicos são surpreendentemente flexíveis pra processar informação proveniente do mundo real. Alguns organismos biológicos possuem uma unidade central de processamento denominada de cérebro. O cérebro humano consiste de 10(11) neurônios e realiza processamento inteligente de forma exata e subjetiva. A Inteligência Artificial (IA) tenta trazer para o mundo da computação digital a heurística dos sistemas biológicos de várias maneiras, mas, ainda resta muito para que isso seja concretizado. No entanto, algumas técnicas como Redes neurais artificiais e lógica fuzzy tem mostrado efetivas para resolver problemas complexos usando a heurística dos sistemas biológicos. Recentemente o numero de aplicação dos métodos da IA em sistemas zootécnicos tem aumentado significativamente. O objetivo deste artigo é explicar os princípios básicos da resolução de problemas usando heurística e demonstrar como a IA pode ser aplicada para construir um sistema especialista para resolver problemas na área de zootecnia.
Resumo:
Este texto apresenta considerações sobre as relações entre afetividade e inteligência no desenvolvimento psicológico, a partir de quatro modelos teóricos: as perspectivas psicogenéticas de Piaget, Wallon, Vygotsky e concepções extraídas da teoria psicanalítica de Freud. O objetivo é apontar as ênfases de cada abordagem para os aspectos afetivos e cognitivos e seu papel no desenvolvimento psicológico. Como conclusão, pode-se dizer que os modelos, interessados pela gênese da construção do conhecimento ou pela constituição do psiquismo, apresentam diferentes tipos de relação entre afetividade e inteligência. Uns propõem relações de alternância (Wallon); complementaridade de um em relação ao outro (Vygotsky) ou correspondência (Piaget) entre afetividade e inteligência, enquanto outro enfatiza aspectos pulsionais que interferem no funcionamento psicológico afetivo e cognitivo (Freud).
Resumo:
Enzymes are extremely efficient catalysts. Here, part of the mechanisms proposed to explain this catalytic power will be compared to quantitative experimental results and computer simulations. Influence of the enzymatic environment over species along the reaction coordinate will be analysed. Concepts of transition state stabilisation and reactant destabilisation will be confronted. Divided site model and near-attack conformation hypotheses will also be discussed. Molecular interactions such as covalent catalysis, general acid-base catalysis, electrostatics, entropic effects, steric hindrance, quantum and dynamical effects will also be analysed as sources of catalysis. Reaction mechanisms, in particular that catalysed by protein tyrosine phosphatases, illustrate the concepts.
Resumo:
Computational methods for the calculation of dynamical properties of fluids might consider the system as a continuum or as an assembly of molecules. Molecular dynamics (MD) simulation includes molecular resolution, whereas computational fluid dynamics (CFD) considers the fluid as a continuum. This work provides a review of hybrid methods MD/CFD recently proposed in the literature. Theoretical foundations, basic approaches of computational methods, and dynamical properties typically calculated by MD and CFD are first presented in order to appreciate the similarities and differences between these two methods. Then, methods for coupling MD and CFD, and applications of hybrid simulations MD/CFD, are presented.
Resumo:
A integração de tecnologias de informação e comunicação no contexto educacional tem sido tema de diversos congressos e simpósios ao redor do mundo e no Brasil. Neste sentido, vários estudos têm sido realizados com o objetivo de se obter metodologias que tornem efetivo o emprego das novas tecnologias no ensino. Este artigo mostra um estudo que investigou a interação entre estudantes universitários da área de ciências exatas e um ambiente de modelagem computacional qualitativo em atividades de modelagem expressiva. Os resultados obtidos mostram que os estudantes foram capazes de criar e modificar o modelo do sistema proposto a partir de suas próprias concepções.
Resumo:
O artigo apresenta resultados da investigação sobre a integração de ambientes de modelagem computacional ao aprendizado exploratório de Física. Os resultados aqui apresentados são relativos ao estudo da interação e desempenho de alunos de ensino superior durante a utilização do ambiente de modelagem computacional semiquantitativo WLinkIt em uma atividade de conteúdo específico em Física: o sistema mola-massa. Os resultados mostram que os estudantes apresentaram habilidades para desenvolver um modelo sobre a situação proposta e relacionar o comportamento apresentado pelo modelo com o esperado por eles, alterar o modelo e explicar o comportamento apresentado pelas variáveis. Os resultados mostram também que as dificuldades apresentadas foram relacionadas à delimitação do sistema a ser estudado, ao entendimento da influência de uma variável sobre a outra, ao entendimento de quem é o agente causal do sistema, ao entendimento da função de uma ligação entre duas variáveis e ao entendimento dos conceitos envolvidos. Assim, o mapeamento desses aspectos é fundamental para o delineamento de pesquisas futuras no sentido de promover, na prática, a integração de Ambientes de Modelagem Computacional Semiquantitativos na sala de aula, mais especificamente para o estudo de tópicos de Física.
Resumo:
Estimativas de vazão máxima de escoamento superficial são necessárias para o projeto de obras hidráulicas em bacias urbanas e rurais. A dificuldade em aplicar os procedimentos disponíveis para calcular a variação do escoamento superficial com o tempo e de seu valor máximo deve-se à inexatidão dos métodos usados para esse objetivo e à variabilidade nos resultados que podem ser obtidos por profissionais que usem o mesmo procedimento. Dessa forma, a investigação de um método que produza estimativas confiáveis da vazão máxima e do hidrograma de escoamento superficial é de grande interesse. Neste trabalho, desenvolveu-se e avaliou-se a sensibilidade de um software (HIDROGRAMA 2.1) que permite a obtenção do hidrograma de escoamento superficial, da vazão máxima e seu tempo de ocorrência, da altura e da velocidade máximas do escoamento, do volume e da lâmina de escoamento superficial em encosta e em canais. O modelo apresentou grande sensibilidade ao período de retorno, à taxa de infiltração estável e ao comprimento da encosta e do canal.
Resumo:
Esta dissertação propõe um algoritmo do Controlador Preditivo Generalizado (GPC) com horizonte de controle igual a um para ser aplicado em plantas industriais com modelos variantes no tempo, simples o su ficiente para ser implementado em Controlador Lógico Programável (PLC). A solução explícita do controlador é obtida em função dos parâmetros do modelo e dos parâmetros de sintonia do GPC (horizonte nal de predição hp e o fator de supressão do sinal de controle ), além das entradas e saídas presentes e passadas. A sintonia do fator de supressão e do horizonte de previsão GPC é feita através do lugar das raízes da equação característica do sistema em malha fechada, sempre que os parâmetros do modelo da planta industrial (estável ou instável em malha aberta) forem modificados.
Resumo:
Neste trabalho, analisamos aspectos relacionados a como a tecnologia computacional é utilizada no Atendimento Educacional Especializado (AEE) e como se deu a formação de professores para utilizar esses recursos. Para tanto, delimitamos os seguintes objetivos específicos: investigar a utilização da tecnologia assistiva (TA) computacional no âmbito das salas de recursos multifuncionais (SRM); problematizar as tensões, dificuldades e possibilidades relacionadas à TA com ênfase na tecnologia computacional para o AEE; analisar a formação do professor de educação especial para o AEE tendo como recurso a TA com ênfase na tecnologia computacional, visando à mediação dos processos de aprendizagem. O aporte teórico deste trabalho foi a abordagem histórico-cultural, tomando por referência os estudos de Vigotski e seus colaboradores. Trata-se de uma pesquisa qualitativa que fez uso de diferentes instrumentos metodológicos como, os grupos focais, o questionário online e a entrevista semiestruturada. Para desenvolvê-lo, realizamos a coleta de dados em diferentes contextos, começando pelos grupos focais da pesquisa inaugural do Oneesp, que serviram como dispositivo para esta pesquisa, seguida da aplicação de um questionário aos professores participantes da pesquisa-formação desenvolvida como um desdobramento no estado do Espírito Santo da pesquisa inaugural do Oneesp pelos integrantes do Oeeesp e da aplicação in loco de entrevistas semiestruturadas com professores de educação especial, de uma SRM do Tipo II. Foram oitenta e nove professores participantes na pesquisa do Oneesp, trinta professores na pesquisa-formação do Oeeesp e dois professores para aplicação da entrevista semiestruturada in loco, respectivamente. Esses dois professores participaram tanto da pesquisa do Oneesp como da pesquisa do Oeeesp. Analisamos esses três momentos, dos quais emergiram os apontamentos que nos proporcionaram pensar, com base nas narrativas orais e escritas dos professores: sua formação para uso da TA computacional; seu entendimento sobre sua formação para este fim; seus anseios por uma formação mais direcionada; a forma como utilizam a tecnologia na sala de recursos; seus entendimentos sobre as dificuldades e possibilidades relacionadas a TA com ênfase na tecnologia computacional para o AEE. Após essas análises, concluímos que poucos professores que atuam nas SRM tiveram uma formação que possibilitasse a aplicação das tecnologias computacionais em sua mediação pedagógica, aliando teoria e prática, com momentos de formação que privilegiassem os momentos presenciais e em laboratórios, onde possam interagir com os computadores e suas ferramentas simbólicas. Sem essa familiaridade com os recursos computacionais, os professores acabam sentindo-se inseguros para utilizá-los, deixando de potencializar, pela via desses recursos, os processos de ensinoaprendizagem do aluno com deficiência. Faz-se necessário um investimento nesse tipo de formação e, mais do que isso, que se viabilize para os professores que atuam ou que pretendem atuar nas SRM. A partir de uma formação apropriada é possível fazer com que os professores utilizem os recursos computacionais como mediadores dos processos de ensino-aprendizagem de seus alunos.