31 resultados para Modelos de Maturidade em Gerenciamento de Projetos
Resumo:
O Parque Estadual de Itapuã é considerado a última área representativa dos ecossistemas originais da região metropolitana de Porto Alegre, sendo que nos últimos 11 anos somente foi permitida a entrada de pesquisadores em suas dependências. Após este longo período em que esteve fechado, o Parque voltará a receber turistas no início de 2002, sendo que os principais destinos serão as praias. Dentre as oito praias existentes na área, somente três serão abertas à visitação, sendo a Praia de Fora a maior delas e a única voltada para a Lagoa dos Patos. Com objetivo de fornecer subsídios para o gerenciamento da Praia de Fora, efetuou-se a análise de uma série de parâmetros morfodinâmicos consagrados na literatura mundial, aprimorando o nível de conhecimento desta praia e suas relações com a Lagoa dos Patos. Para tanto, utilizou-se os modelos de praias de Banco Único e de Bancos Múltiplos da chamada Escola Australiana com a aplicação dos seguintes parâmetros: Parâmetro Adimensional Omega (Ù), Omega Teórico (Ùterorico), Parâmetro de Banco (B), Declividade da Face de Praia (Tang ß) e Parâmetro Dimensionador de Surfe (surf scaling parameter). Outros modelos utilizados foram o Perfil de Equilíbrio de DEAN (1973), o modelo de Transporte Longitudinal dos sedimentos da zona de surfe, (SPM, 1984), o Limite Externo e Limite Interno (Profundidade de Fechamento) e o modelo de Sentido Preferencial de Transporte Perpendicular (SUNAMURA & TAKEDA, 1984). Além destes, optou-se por realizar uma análise temporal da variação da linha de praia da Praia de Fora no período entre 1978 e 2001. Os resultados obtidos indicam um ambiente com uma grande variação energética anual, sendo que a largura da face praial apresentou variações de até 16 m e a declividade de 2,8° a 11.3°. A análise dos parâmetros morfodinâmicos indicou uma praia com grande alternância de estágios morfodinâmicos, que reflete a presença de uma zona de transporte de sedimentos muito intenso por ação de ondas até a profundidade de 0,90 m, uma zona de transporte significativo entre 0,90 e 5 m e uma zona de transporte incipiente para as profundidades maiores que 6 m. O transporte no sentido longitudinal, apresenta uma bidirecionalidade com uma pequena resultante para SE e em sentido transversal apresenta uma maior incidência de transporte da zona de surfe para a antepraia, caracterizando setores erosivos na Praia de Fora. Estes setores erosivos foram detectados em 58% da extensão da Praia de Fora com uma taxa média de 3,75 m por ano. Já em 14% da extensão da praia foi observado acresção e em 28% da praia não houve variação significativa da posição da linha de praia. As taxas médias de deposição chegaram a 1,75 m por ano. A sistematização de todos os resultados permitiu a elaboração de subsídios para o gerenciamento da Praia de Fora. São eles: análise dos riscos para a segurança de banhistas na praia, manejo de dunas, restrições a explotação de areia de fundo nas adjacências da Praia de Fora e delimitação submersa do Parque de Itapuã junto à cota batimétrica dos –6m. Esta delimitação aumentaria em aproximadamente 10.920 hectares ou 196 %, a área atual de preservação do Parque de Itapuã.
Resumo:
Uma atividade com a magnitude da avicultura, que usa equipamentos de última geração e serviços atualizados, é levada, na maioria dos casos, a tomar decisões que envolvem todos aspectos de produção, apoiada em critérios subjetivos. A presente tese objetivou estudar a utilização das redes neurais artificiais na estimação dos parâmetros de desempenho de matrizes pesadas, pertencentes a uma integração avícola sul-brasileira. Foram utilizados os registros de 11 lotes em recria, do período compreendido entre 09/11/97 a 10/01/99 e de 21 lotes em produção, do período compreendido entre 26/04/98 a 19/12/99, para a análise por redes neurais artificiais. Os dados utilizados corresponderam a 273 linhas de registros semanais, do período de recria e 689 linhas de registros semanais, do período de produção. Os modelos de redes neurais foram comparados e selecionados como melhores, baseados no coeficiente de determinação múltipla (R2), Quadrado Médio do Erro (QME), bem como pela análise de gráficos, plotando a predição da rede versus a predição menos o real (resíduo). Com esta tese foi possível explicar os parâmetros de desempenho de matrizes pesadas, através da utilização de redes neurais artificiais. A técnica permite a tomada de decisões por parte do corpo técnico, baseadas em critérios objetivos obtidos cientificamente. Além disso, este método permite simulações das conseqüências de tais decisões e fornece a percentagem de contribuição de cada variável no fenômeno em estudo.
Resumo:
As organizações desenvolvedoras de software, na sua maioria, têm grande dificuldade de identificar e adotar um processo adequado de gestão de mudanças de requisitos. Durante todo o ciclo de vida de desenvolvimento de um software existem inúmeras solicitações de mudanças de escopo e de requisitos (técnicos ou não). Isso provoca muitos transtornos aos projetos e aos envolvidos. Por isso, há uma necessidade determinante de que essas organizações utilizem um processo adequado de acompanhamento e de controle de requisitos. Com base nisso, este trabalho procura apresentar uma metodologia de gerenciamento de mudanças dos requisitos, desde a base conceitual, que envolve os requisitos ( tipos, problemas, técnicas de elicitação e visão geral sobre modelo de gerência de requisitos), até a aplicação da metodologia proposta em um estudo de caso. O desenvolvimento deste trabalho teve como objetivo principal desenvolver a estrutura de uma metodologia que fosse de fácil aplicação nas organizações, dando uma noção de como devem ser gerenciadas as mudanças de requisitos, sua documentação, os modelos de documentos a serem utilizados e um exemplo prático de aplicação da metodologia.
Resumo:
Os controladores programáveis tornaram-se fator decisivo para o controle de processos em ambientes industriais. Permitir o gerenciamento desses, eleva-os ao mesmo grupo de outros equipamentos da rede. Gerenciar esses dispositivos e o processo controlado tende a facilitar a identificação de falhas, as intervenções no processo e demais vantagens trazidas por um bom esquema de gerência. Uma maneira de realizar esse gerenciamento é por meio de programas conhecidos como supervisórios. Além das aplicações de supervisão, uma nova classe de ferramentas, que também possibilita o gerenciamento tanto do controlador quanto do processo a esse submetido, vem sendo disponibilizada. A presença de protocolos de gerenciamento, tal qual o SNMP, já é uma realidade em alguns dos modelos de equipamentos oferecidos por vários fabricantes, promovendo uma integração com plataformas de gerência já existentes no mercado. A proposta deste trabalho inclui a elaboração de um modelo de gerenciamento usando XML, atualmente em ampla ascensão e aceitação. Está, também, previsto a construção de um protótipo capaz de realizar as funções de um agente. A criação de um modelo de gerenciamento baseado em tecnologias e especificações abertas, tais como XML e Web, possibilita desde a utilização de um navegador, até o desenvolvimento de novas ferramentas para a requisição/aquisição de dados em controladores.
Resumo:
O gerenciamento de riscos constitui atualmente um dos principais fatores relacionados ao baixo índice de sucesso nos projetos de desenvolvimento de software. Neste contexto, dentre outras contribuições relevantes, pode-se considerar o levantamento de ações preventivas que auxiliem os profissionais da área de desenvolvimento de sistemas para a obtenção dos resultados definidos. Mais especificamente, de maneira a cobrir as principais situações problemáticas, é importante considerar ações relacionadas ao comprometimento da gerência sênior e do usuário, à indefinição e alteração de escopo, ao perfil e volatilidade da equipe, e ao orçamento e cronograma do projeto. A partir da utilização de questionários e da realização de entrevistas com profissionais da área, identificaram-se, para cada situação problemática de risco, as ações adotadas por empresas da área de tecnologia da informação e empresas de outras áreas de negócio, como telecomunicação, indústria de computadores, educação e financeira. Foi também analisado o modo de posicionamento das empresas (preventivo ou corretivo) nas situações de risco, acompanhado de uma apreciação relacionada tanto ao ambiente das empresas como às categorias de conceitos desenvolvidos pela literatura especializada. Espera-se, com os resultados deste trabalho, auxiliar as empresas que lidam com projetos de desenvolvimento de software na estruturação de seus processos de gerenciamento de risco.
Resumo:
Este trabalho apresenta um modelo de gerenciamento dinâmico de uma cadeia de suprimentos que tem por objetivo determinar os níveis de pedidos, vendas, estoque e níveis de serviço da cadeia de suprimentos de modo a otimizar a lucratividade total da cadeia. A lucratividade da cadeia de suprimentos é enfocada sob a perspectiva da inclusão dos efeitos dos custos de transporte por meio de uma estrutura linear côncava de custos. Essa estrutura é composta por um conjunto de equações ajustadas, representativas dos custos de transporte. Assim, é possível a obtenção de economias de escala em função das quantidades entregues. O trabalho pode ser dividido em duas etapas principais. A primeira etapa compreende, em um contexto de gerenciamento da cadeia de suprimentos, uma revisão bibliográfica que abrange os principais aspectos da modelagem tradicionalmente utilizada para a determinação de quantidades ótimas de pedido e entrega, as principais deficiências e as diferentes abordagens de custos de transporte. A segunda etapa é caracterizada pela formulação, simulação e avaliação dos resultados do modelo de gerenciamento dinâmico da cadeia. Nessa etapa, analisa-se a influência da estrutura de custos de transporte nas decisões de reabastecimento da cadeia de suprimentos. A determinação dos níveis de pedidos, vendas, estoque e de serviço, os custos e a lucratividade da cadeia é feita a partir da otimização de cenários. Neste trabalho realiza-se uma análise comparativa de cenários para identificar a influência da alteração de parâmetros nos resultados do modelo. Os resultados apresentam-se promissores e, com relação aos custos de transporte, verificou-se que os limites de capacidade de transporte e os custos mínimos de transporte têm grande influência nas decisões de reabastecimento. Enfim, a principal contribuição deste trabalho está relacionada à possibilidade de tornar a estrutura de custos de transporte dos modelos de gerenciamento dinâmico da cadeia de suprimentos mais próxima da estrutura de custos reais. Palavras-chave: cadeia de suprimentos; custos de transporte; modelo de gerenciamento dinâmico.
Resumo:
A crescente necessidade de padronização, eficácia e gerenciamento de processos têm aumentado o interesse das mais diferentes organizações pela tecnologia de workflow. Entretanto, a rápida propagação da tecnologia de workflow, ocorrida na última década, fez com que muitos sistemas desenvolvidos nesta área fossem disponibilizados e difundidos sem uma padronização clara. Analisando-se especificamente a fase de construção do workflow, nota-se que há muitas divergências. Conceitualmente, ainda não há modelos nem metodologias de modelagem amplamente aceitos e consolidados. Quanto às implementações, ainda não existe uma especificação clara e detalhada das ferramentas de definição. A conseqüência deste panorama é a baixa interoperabilidade e a baixa padronização dos conceitos, funcionalidades e interações das ferramentas de definição. Contudo, muitos esforços estão sendo feitos para solucionar o problema da interoperabilidade e padronização. A área de workflow como um todo já começa a apontar fortes tendências de padronização dos conceitos, funcionalidades e interações de seus sistemas. Detectar e avaliar tais tendências são os focos de estudos desta dissertação. Mais precisamente, o objetivo desta dissertação é fornecer informações e métodos que possam ajudar desenvolvedores e usuários de ferramentas de definição a: compreender, descrever e avaliar os conceitos, funcionalidades e interações deste tipo de ferramenta. Para tanto, é mostrado um método de descrição de modelos conceituais de ferramentas de definição. O referido método é resultado de uma pesquisa sobre o modelo conceitual deste tipo de ferramenta. Com base nas informações pesquisadas, foi desenvolvido o modelo conceitual de uma ferramenta de definição chamada de Amaya Workflow (AW). Para mostrar a viabilidade de implementação do modelo conceitual AW e concretizar em um software os estudos desenvolvidos durante esta dissertação, foi implementado o protótipo Amaya Workflow. Por fim, é mostrado um panorama geral das funcionalidades, conceitos e interações das principais ferramentas de definição existentes. Com base neste panorama e nos estudos anteriores, é descrito um método de avaliação de modelos conceituais de ferramentas de definição.
Resumo:
O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.
Resumo:
A tomada de decisões é um procedimento complexo e que envolve muitas variáveis. A análise multiobjeto estabelece relações para que, em projetos e planejamento de unidades de gerenciamento, sejam analisados os diversos condicionantes envolvidos. Como nos recursos hìdricos a tomada de decisão envolve cada vez mais a resolução de conflitos e um aumento da diversidade de objetivos, a análise multiobjetivo vem sendo cada vez mais utilizada..O objetivo deste trabalho é desenvolver ferramenta e metodologias que busquem formas de quantificar, avaliar e analisar múltiplos objetivos envolvidos na tomada de decisão em projetos, planejamento e gerenciamento de bacias hidrográficas. Para a elaboração dos estudos foi escolhida a bacia do rio dos Sinos. A bacia do rio dos Sinos abrange parte da Região Metropolitana de Porto Alegre, e é importante pólo econômico do Estado do Rio Grande do Sul Foram identificados condicionantes para a bacia, quais sejam: eficiência econômica, melhoria da qualidade da água, comprometimento social e minimização do impacto ambiental. Cada condicionante foi modelado por metodologias já consagradas para tal. A novidade é o casamento delas o que tornou o problema mais complexo de ser resolvido. Foi elaborada função de compromisso para a bacia do rio dos Sinos.Por fim, baseado em preferências estabelecidas pelo Comitê da Bacia Hidrográfica, foram elaborados tabela e gráficos que auxiliam na tomada de decisão para intervenções no rio, definindo assim, o que deve ser feito primeiro com os recursos disponíveis em um plano de despoluição para a bacia.
Resumo:
O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.
Resumo:
Na atual era do conhecimento, a informação ganhou importância nos meios empresarial e acadêmico, reforçando o interesse por estudos de desenvolvimento de sistemas de informação voltados para as necessidades específicas dos ambientes em que serão aplicados. A tecnologia de Internet é um exemplo. Sistemas de Informação na Web são sistemas de informação que utilizam a Web como substrato estrutural, o que requer metodologias de desenvolvimento adequadas. Por outro lado, determinados sistemas de informação precisam ser adaptados a necessidades cíclicas de uso, como processos que se repetem periodicamente. O presente trabalho tem como objetivo alinhar estas duas necessidades através da identificação de uma proposta metodológica para modelagem de sistemas de informações na Web com características sazonais. Para tanto, empregou-se a metodologia de pesquisa-ação. Como resultado prático, é descrita a aplicação do método proposto no desenvolvimento de um sistema de informação na Web para gestão do Encontro Nacional de Engenharia de Produção (ENEGEP), o mais importante congresso científico da área de Engenharia de Produção no Brasil. Concluiu-se que o método proposto atendeu bem o desenvolvimento das características específicas de sazonalidade da utilização do sistema em questão.
Resumo:
O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.
Resumo:
Em sistemas de controle de tráfego veicular urbano existem diversas abordagens que lidam com o problema da redução do congestionamento de tráfego. Uma classe destas abordagens aplica a sincronização de semáforos a m de permitir que os veículos que viajam em um sentido possam passar diversos cruzamentos sem paradas. Este trabalho apresenta dois métodos de coordenação de agentes aplicados à sincroniza ção de semáforos. O primeiro método inspira-se em mecanismos de coordenação observados em insetos sociais e o segundo modela o problema de coordenação de semá- foros como um problema de otimização de restrições distribuído e faz sua resolução em tempo real utilizando mediação cooperativa. Inicialmente são apresentados conceitos básicos de sistemas de tráfego urbano, Swarm Intelligence e problemas de otimização de restrições. A partir dos conceitos iniciais, são apresentados os modelos propostos. Os resultados mostram que as abordagens propostas geram a coordenação entre os sem áforos sendo que o modo que os agentes estão coordenados pode mudar para se adaptar às mudanças nas condições do ambiente, gerando melhores condições de uxo de tráfego.
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
Sistemas de tomada de decisão baseados em Data Warehouse (DW) estão sendo cada dia mais utilizados por grandes empresas e organizações. O modelo multidimensional de organização dos dados utilizado por estes sistemas, juntamente com as técnicas de processamento analítico on-line (OLAP), permitem análises complexas sobre o histórico dos negócios através de uma simples e intuitiva interface de consulta. Apesar dos DWs armazenarem dados históricos por natureza, as estruturas de organização e classificação destes dados, chamadas de dimensões, não possuem a rigor uma representação temporal, refletindo somente a estrutura corrente. Para um sistema destinado à análise de dados, a falta do histórico das dimensões impossibilita consultas sobre o ambiente real de contextualização dos dados passados. Além disso, as alterações dos esquemas multidimensionais precisam ser assistidas e gerenciadas por um modelo de evolução, de forma a garantir a consistência e integridade do modelo multidimensional sem a perda de informações relevantes. Neste trabalho são apresentadas dezessete operações de alteração de esquema e sete operações de alteração de instâncias para modelos multidimensionais de DW. Um modelo de versões, baseado na associação de intervalos de validade aos esquemas e instâncias, é proposto para o gerenciamento dessas operações. Todo o histórico de definições e de dados do DW é mantido por esse modelo, permitindo análises completas dos dados passados e da evolução do DW. Além de suportar consultas históricas sobre as definições e as instâncias do DW, o modelo também permite a manutenção de mais de um esquema ativo simultaneamente. Isto é, dois ou mais esquemas podem continuar a ter seus dados atualizados periodicamente, permitindo assim que as aplicações possam consultar dados recentes utilizando diferentes versões de esquema.