83 resultados para Gerenciamento de riscos de TI


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existe, por parte da comunidade industrial e científica, uma incessante procura por revestimentos protetores mais resistentes a ambientes cada vez mais agressivos, como aquele encontrado pelas ferramentas de injeção de alumínio. Uma das tendências que surge para aumentar a vida útil destas ferramentas é a de produzir filmes finos compostos por diversas camadas, cada qual tendo sua função especifica; um exemplo deste tipo de revestimento é aquele composto por camada de adesão, camada intermediária e camada de trabalho. Neste trabalho, foi proposto estudar a utilização do nitreto de titânio e alumínio (Ti,Al)N, tanto como camada intermediária quanto de trabalho, uma vez que este apresenta alta dureza, grande resistência ao desgaste e superior resistência à oxidação. Para a camada intermediária, foram depositados filmes finos tipo multicamadas (TixAl1-x)N/(TiyAly-1)N, (Ti,Al)N/TiN e (Ti,Al)N/AlN, com variação na estrutura cristalina e na espessura das camadas individuais, pois dependendo da quantidade de alumínio adicionado ao sistema, o (Ti,Al)N apresenta mudanças em algumas de suas propriedades, como estrutura cristalina, dureza e resistência mecânica. Os filmes finos monolíticos de (Ti,Al)N e suas multicamadas foram depositadas por magnetron sputtering reativo e caracterizados quanto ao crescimento cristalino, estequiometria, espessura das camadas individuais, dureza e módulo de elasticidade. Na segunda parte deste trabalho, a fim de avaliar a camada de trabalho, é apresentada uma nova técnica de caracterização in-situ, que avalia as reações químicas que ocorrem entre o alumínio e os materiais selecionados. Foram comparados entre si o aço AISI H13, os revestimentos nitreto de titânio, nitreto de cromo, e três diferentes composições de (Ti,Al)N, a fim de verificar qual material apresenta o comportamento mais inerte em contato ao alumínio a altas temperaturas. Para tanto, foram utilizadas as técnicas de calorimetria diferencial de varredura (DSC) e difração de raios X (XRD).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O gerenciamento de redes exige dos administradores a disponibilidade de uma grande quantidade de informações sobre os seus equipamentos, as tecnologias envolvidas e os problemas associados a elas. Nesse cenário, administradores de redes devem, cada vez mais, aprofundar o seu conhecimento através de constante treinamento, até que estejam aptos a administrar uma rede de maneira mais eficiente e confiável. Alguns estudos têm sido feitos buscando integrar tecnologias de Inteligência Artificial na área de gerenciamento de redes. Abordagens utilizando sistemas multiagentes, agentes de interface e sistemas especialistas já foram utilizadas com o objetivo de facilitar a tarefa de gerenciamento de rede aos olhos do usuário. Os chatterbots representam um grande potencial para a tarefa de treinamento e gerenciamento de redes já que utilizam linguagem natural e são capazes de ser facilmente integrados em ambientes mais complexos. O principal objetivo deste trabalho é investigar o uso de chatterbots como uma ferramenta de gerenciamento utilizada por administradores menos treinados. O trabalho envolveu a adaptação do chatterbot ALICE para permitir o treinamento e a gerência de redes através da inclusão de módulos que permitem a monitoração de equipamentos de uma rede (através do protocolo SNMP) e módulos que permitam consultar e armazenar histórico de informações da mesma. Desta forma, a grande contribuição da arquitetura proposta é a de prover uma comunicação mais efetiva entre o administrador menos experiente e a rede, através do chatterbot assistente, que recebe consultas em linguagem natural, interpreta os dados coletados e expõe os conceitos envolvidos no processo de gerenciamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na atual era do conhecimento, a informação ganhou importância nos meios empresarial e acadêmico, reforçando o interesse por estudos de desenvolvimento de sistemas de informação voltados para as necessidades específicas dos ambientes em que serão aplicados. A tecnologia de Internet é um exemplo. Sistemas de Informação na Web são sistemas de informação que utilizam a Web como substrato estrutural, o que requer metodologias de desenvolvimento adequadas. Por outro lado, determinados sistemas de informação precisam ser adaptados a necessidades cíclicas de uso, como processos que se repetem periodicamente. O presente trabalho tem como objetivo alinhar estas duas necessidades através da identificação de uma proposta metodológica para modelagem de sistemas de informações na Web com características sazonais. Para tanto, empregou-se a metodologia de pesquisa-ação. Como resultado prático, é descrita a aplicação do método proposto no desenvolvimento de um sistema de informação na Web para gestão do Encontro Nacional de Engenharia de Produção (ENEGEP), o mais importante congresso científico da área de Engenharia de Produção no Brasil. Concluiu-se que o método proposto atendeu bem o desenvolvimento das características específicas de sazonalidade da utilização do sistema em questão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A inovação é uma das principais alternativas para manter a competitividade empresarial. Este trabalho apresenta um modelo para auxiliar nas decisões estratégicas associadas à inovação. Esse modelo é denominado DEIN – Decisões Estratégicas de INovação – e contempla tanto a inovação espontânea como a induzida. O modelo proposto foi construído a partir da análise do referencial teórico e entrevistas conduzidas junto a especialistas. Ele fornece uma estrutura para avaliar os diferentes elementos envolvidos na gestão da inovação: (i) avaliação de idéias associadas à inovação em produto ou processo, (ii) avaliação da competitividade dos produtos existentes, (iii) avaliação da possibilidade de inovação nos processos e produtos existentes, (iv) avaliação da competitividade de novos produtos e (v) avaliação do índice de inovação praticado pela empresa. A utilização do DEIN pode auxiliar as empresas a decidir a respeito de quais produtos serão mantidos como estão no momento, quais serão aposentados, quais serão objeto de inovação e quais novos produtos devem ser lançados. O DEIN é apresentado em detalhe e, posteriormente, validado através de uma abordagem qualitativa aplicado em duas empresas de dois setores industriais: automotivo e de cabos de ancoragem. A validação permitiu aprimorar o modelo proposto e confirmou a sua relevância e aplicabilidade junto ao meio empresarial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet tem expandido a área de atuação das empresas aproximando mercados, empresas, pessoas e gerando mudanças significativas no paradigma das relações de trabalho. Juntamente, a chamada “revolução da informação” e a expansão da competitividade entre as empresas no mercado global ocasionaram um movimento de reformulação nas próprias estruturas administrativas das organizações de forma que a informação e o conhecimento passaram a ser vistos como recursos organizacionais tão importantes quanto a mão-de-obra ou a matéria-prima. Estas mudanças revolucionaram os mais diversos processos organizacionais, sobretudo aqueles relacionados com a gestão do conhecimento e da informação. Neste contexto, a problemática do gerenciamento de informação pode ser identificada como desafio crucial, o qual tem sido abordado tanto no cenário acadêmico quanto no cenário empresarial. Assim, o desenvolvimento de meios e métodos para operacionalização do gerenciamento de conteúdos é tema desta dissertação, que objetiva, através da aplicação da metodologia de pesquisa-ação, apresentar a descrição funcional um sistema modular para gerenciamento de conteúdo em ambiente web. Também são discutidos aspectos relacionados com a aplicação prática do sistema em diferentes websites, e realizada uma avaliação onde se constatou que os gestores estão satisfeitos, não apresentando dificuldade de uso, e ainda obtiveram resultados positivos com o uso da ferramenta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta pesquisa, optei por investigar, no âmbito da formação de professores, os movimentos de reflexão e problematização proporcionados por uma experiência de aprendizagem e estudo em que as relações entre tecnologias de informação e comunicação e ensino de história foram o foco privilegiado do processo formativo. Parti do pressuposto de que no desenvolvimento de uma experiência de formação, a utilização das tecnologias de informação e comunicação, em uma perspectiva teórico-metodológica assentada nas idéias de provisoriedade, complexidade, relatividade e descontinuidade, bem como, numa concepção mais contemporânea de ensino de história, poderia provocar determinados efeitos que apontariam uma possível positividade da produção de práticas pedagógicas que articulassem ensino de história e tecnologias de informação e comunicação. Para tanto, o objeto desta pesquisa se constituiu em um estudo sobre o ensino de história interseccionado pelas tecnologias de informação e comunicação, a partir do acompanhamento de um grupo formado por seis professoras de história que atuam na educação básica de Porto Alegre/RS. Para constituir esse grupo, optei por oferecer um curso de formação continuada, na Faculdade de Educação, da Universidade Federal do Rio Grande do Sul, mediante a modalidade de Curso de Extensão denominado O ensino de histórias e as tecnologias de informação e comunicação O objetivo geral deste trabalho foi inscrever no horizonte de atenção e preocupação das professoras, as tecnologias de informação e comunicação relacionadas ao ensino de história, proporcionando a elas repensar algumas de suas práticas e concepções. As discussões e o trabalho proposto afetou as professoras positivamente, possibilitando descobertas, alegrias, incertezas e desassossegos, no que diz respeito a hipertextualidade, a pluralidade da rede e a utilização de ambientes virtuais de aprendizagem no ensino de história. Esta pesquisa aponta para a importância de que o tema, pela sua relevância, figure na formação inicial e continuada dos professores, assim como, para a necessidade de fazer com que a relação entre tecnologias e o ensino de história seja constitutiva dos modos de ser e fazer dos professores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento de um método analítico para determinação de Mg, Ti e Cl emcatalisadores suportados Ziegler-Natta (ZN) por espectroscopia de fluorescência de raios Xcom dispersão em comprimento de onda (WDXRF) foi avaliado. Três famílias decatalisadores com distintos teores de Mg, Ti e Cl foram utilizados. Para fins de comparação,os analitos foram também determinados por métodos clássicos, a saber, Mg porcomplexometria com EDTA, Ti por espectrofotometria e Cl por argentimetria. A naturezahigroscópica desses catalisadores impossibilitou a análise direta por WDXRF. Melhoresresultados na preparação da amostra foram obtidos através da calcinação (1000 0C), seguida de mistura com aglomerante (H3BO3), na proporção 1:4, para a determinação da razãoMg/Ti. O estudo do efeito da pressão sobre a intensidade do sinal analítico de Mg e de Ti evidencioua necessidade de prensagem das amostras em pressões superiores a 200 MPa. No caso de Mg e Ti, a determinação por Parâmetros Fundamentais (FP), a partir da medida da linha espectral do Ti, forneceu resultados equivalentes àqueles obtidos porcalibração univariada e por métodos clássicos. No entanto, a utilização de FP a partir damedida da linha espectral do Mg mostrou-se inadequada, provavelmente, devido ao baixo valor do número atômico do Mg. Nas três famílias de catalisadores ZN a razão Mg/Tiobservada foi 0,44 ± 0,01; 1,8 ± 0,05 e 4,9 ± 0,02. A determinação de Cl foi estudada através de extração em meio aquoso, seguida pordeposição de um alíquota da solução sobre diferentes suportes (filmes finos) e posteriorevaporação do solvente. Foram avaliados os suportes papel filtro quantitativo, membranasMillipore FHLC Teflon®, de difluoreto de polivinilideno, celulose, Nylon®, fita Kapton®(poliamida) e Mylar® (poliéster). Devido à natureza do Cl, houve perdas do elemento químicopor volatilização, durante as medidas, possivelmente devido ao vácuo e aquecimento daamostra dentro da câmara de análise do equipamento. A tentativa de fixação do Cl comoAgCl, seguida por deposição sobre a membrana Millipore FHLC foi considerada adequada.No entanto, a média dos resultados obtidos por WDXRF mostrou-se inferior quando comparada ao método argentimétrico utilizado como referência, para um nível de certeza de95%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho, de caráter exploratório, visou identificar o valor percebido pelos alunos de graduação de uma Instituição de Ensino Superior a respeito dos recursos de Tecnologia da Informação e de sua utilização voltada para as atividades acadêmicas. Para tal, foi utilizada a técnica de entrevistas em laddering. Vinte e cinco alunos de graduação foram entrevistados, através de uma das três seguintes modalidades: e-mail, telefone ou pessoalmente. Os resultados do trabalho incluem a construção do mapa hierárquico de valor e a identificação das dimensões de valor mais importantes. Foram identificados como importantes 4 atributos, 12 conseqüências de uso e 3 valores. Os atributos identificados como importantes são: “Bom acesso à Internet”, “Bom equipamento”, “Bom software” e “Capacidade de armazenamento”. As conseqüências de uso identificadas como importantes são: “Acesso a mais informações”, “Comunicação”, “Conseguir fazer os trabalhos”, “Facilidade de uso”, “Fazer trabalhos melhores”, “Ganhar tempo”, “Maior rapidez”, “Melhor desempenho acadêmico”, “Reutilização do material”, “Maior acesso ao mercado de trabalho”, “Mais tempo disponível” e “Poder trabalhar em qualquer horário”. Os valores identificados como importantes são: “Clareza e boa apresentação melhoram a avaliação”, “Meu tempo é importante” e “Ser competitivo no mercado de trabalho”. Como resultado do trabalho também pode ser apontado que a técnica de entrevistas em laddering mostrou-se adequada para o estudo em questão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Novas tecnologias têm sido investigadas como soluções alternativas ao protocolo de gerenciamento de redes padrão, o SNMP. Nesse cenário, a tecnologia de Web Services (WS) vem se tornando bastante promissora, mas imaginar que ela irá substituir de imediato o SNMP não é uma abordagem factível, pois é provável que o SNMP continue sendo utilizado nos dispositivos de rede por um bom tempo. Além disso, os WS são recentes, necessitando maiores investigações com respeito a utilização no gerenciamento de redes. As atuais investigações realizadas comparam os WS com o SNMP em casos genéricos, não levando em consideração casos especí cos de gerenciamento. Nesse contexto, esta dissertação apresenta o desenvolvimento e a avaliação de duas implementações baseadas em WS, desenvolvidas no especí co contexto do gerenciamento distribuído por delega- ção e tendo a MIB Script, de nida pelo IETF, como base de desenvolvimento. A primeira implementação consiste na construção de um novo tipo de gateway WS para SNMP, denominado gateway em nível de serviço, que caracteriza-se por ser construído baseado nos serviços que um determinado módulo de MIB oferece. Isso proporciona um grau maior de abstração, na visão do gerente WS, na manipulação dos agentes SNMP e, também, diminui o número de mensagens trocadas entre o gerente WS e o gateway desenvolvido. A segunda implementação realiza a total substituição do SNMP no gerenciamento dos dispositivos, permitindo, com isso, um gerenciamento de redes completamente baseado em Web Services. A implementação consistiu na construção de um novo tipo de agente, denominado por agente orientado a serviços baseado em Web Services, ou apenas agente WS. O agente WS desenvolvido possui as mesmas características que o gateway em ní- vel de serviço, diferindo apenas na não utilização de SNMP no caso do agente WS. O gerenciamento das duas implementações é realizado através de um módulo desenvolvido e incorporado ao ambiente de gerenciamento de redes QAME. Esse módulo manipula as duas implementações da mesma maneira, uma vez que os serviços oferecidos por elas possuem a mesma interface de acesso. A avaliação realizada consistiu na comparação entre as duas implementações desenvolvidas neste trabalho e outras duas soluções de gerenciamento investigadas: o gateway em nível de objeto e uma implementação da MIB Script, denominada Jasmin. Os parâmetros de avaliação utilizados nas comparações foram o tráfego gerado e o tempo de resposta percebido. Como será visto ao nal, os resultados das comparações realizadas no caso especí co do gerenciamento por delega- ção são diferentes daqueles apresentados em investigações mais genéricas. Além disso, as duas implementações desenvolvidas neste trabalho demonstraram serem promissoras, apresentando resultados bastante satisfatórios com relação aos parâmetros avaliados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho objetivou avaliar os sistemas de gerenciamento de resíduos de serviços de saúde frente aos instrumentos legais e normativos vigentes no Brasil, acerca dos quais existem poucos estudos. O estudo envolveu coleta de dados reais, por um período contínuo de dois anos, analisando a eficiência da segregação, os sistemas de tratamento, e os custos decorrentes, em duas instituições de assistência à saúde em nível terciário (Hospital Escola do Sistema Único de Saúde - SUS e Hospital Conveniado). O sistema de gerenciamento de resíduos iniciou com um diagnóstico da situação das unidades hospitalares, definição das estratégias educativas de sensibilização, treinamento e capacitação do quadro funcional, com ênfase na segregação de resíduos. A avaliação dos custos, decorrentes da utilização de tecnologias de tratamento via esterilização por vapor úmido (hospital do SUS), e por oxidação térmica (hospital Conveniado), bem como dos custos estendeu-se ainda à disposição final dos resíduos. Foram analisados os índices e percentuais de geração das diferentes categorias de resíduos (infectantes, especiais, comuns e recicláveis) nos dois estabelecimentos. Estudo piloto prévio à implantação do sistema de gerenciamento, revelou um índice de geração total de resíduos de 3,5 kg/leito/dia no Hospital Conveniado, e de 2,6 kg/leito/dia no Hospital SUS. Os índices de geração de infectantes nos referidos hospitais foram de 1,3 (Conveniado) e 1,1 kg/leito/dia (SUS). Os dados do monitoramento contínuo (24 meses), demonstraram, em nível de significância de 5%, uma redução nos índices de geração de resíduos infectantes de cerca de 35% no Hospital Conveniado e de 38% no Hospital SUS, e um aumento significativo nos índices de geração de resíduos comuns e recicláveis, após a implantação dos sistemas de gerenciamento e dos programas educativos, indicando falhas na segregação anteriormente a estes. Os resultados confirmaram a influência positiva dos programas educativos e do sistema organizacional, e a possibilidade de serem alcançadas índices e percentuais ainda mais baixos que os preconizados pela literatura. Os resultados apresentaram, também, altas taxas de reencape de agulhas (41% das conectadas e 51% das desconectadas no Hospital SUS; 68% das conectadas e 55% das desconectadas no hospital Conveniado), dando indicativos do potencial de risco com saúde ocupacional a que estão expostos os profissionais, e da necessidade de reforçar os conceitos de auto cuidado com os mesmos. No tocante aos custos com os sistemas de gerenciamento, o Hospital Conveniado tem um custo final menor que o Hospital SUS. Porém, quando traduzido para paciente/dia, o Hospital SUS tem um custo de R$ 3,54 enquanto que no Hospital Conveniado o custo é de R$ 5,13, ou seja, 45,1% maior que no Hospital SUS, apesar da oferta de serviços ser semelhante. Para o tratamento de resíduos infectantes junto à fonte geradora com tecnologia de esterilização via vapor úmido e microondas, somados à despesa com serviços terceirizados para situações de contingência, tratamento de peças anatômicas e pérfuro-cortantes, o Hospital SUS tem um custo de R$ 0,57 paciente/dia enquanto o tratamento via incineração do Hospital Conveniado tem um custo de R$ 0,86 paciente/dia. Estes resultados evidenciam que o tratamento junto à fonte geradora, consideradas as situações avaliadas é mais vantajoso do ponto de vista econômico e ambiental. Os custos ambientais totais obtidos para o hospital SUS são de R$ 3,54 paciente/dia para R$ 5,13 por paciente/dia no hospital Conveniado. O trabalho fornece subsídios metodológicos para definição de índices e percentuais de geração, bem como para o cálculo dos custos envolvidos no gerenciamento que podem servir de base para aplicação em outros estabelecimentos de assistência à saúde.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em sistemas de controle de tráfego veicular urbano existem diversas abordagens que lidam com o problema da redução do congestionamento de tráfego. Uma classe destas abordagens aplica a sincronização de semáforos a m de permitir que os veículos que viajam em um sentido possam passar diversos cruzamentos sem paradas. Este trabalho apresenta dois métodos de coordenação de agentes aplicados à sincroniza ção de semáforos. O primeiro método inspira-se em mecanismos de coordenação observados em insetos sociais e o segundo modela o problema de coordenação de semá- foros como um problema de otimização de restrições distribuído e faz sua resolução em tempo real utilizando mediação cooperativa. Inicialmente são apresentados conceitos básicos de sistemas de tráfego urbano, Swarm Intelligence e problemas de otimização de restrições. A partir dos conceitos iniciais, são apresentados os modelos propostos. Os resultados mostram que as abordagens propostas geram a coordenação entre os sem áforos sendo que o modo que os agentes estão coordenados pode mudar para se adaptar às mudanças nas condições do ambiente, gerando melhores condições de uxo de tráfego.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas, o papel do Governo brasileiro na oferta de habitação de interesse social tem sofrido mudanças, com a participação mais ativa do setor privado no desenvolvimento de produtos. Isto tem levado à crescente complexidade financeira, regulamentar, ambiental, social e técnica. Um grande número de profissionais é envolvido, demandando muito esforço no gerenciamento de requisitos conflitantes e trade-offs. Além disso, o aumento na velocidade das inovações tecnológicas e a crescente exigência por qualidade por parte dos clientes tem demandado mudanças no processo de desenvolvimento do produto (PDP) no sentido de aumentar o seu valor do ponto de vista do cliente final. O objetivo principal deste trabalho é identificar oportunidades de melhorias para o gerenciamento de requisitos do cliente em empreendimentos do Programa de Arrendamento Residencial (PAR), no contexto atual brasileiro. Este programa é uma nova forma de provisão habitacional, gerenciada pela Caixa Econômica Federal. O desenvolvimento desta pesquisa foi dividido em três etapas. A Etapa A teve como objetivo principal a compreensão do PDP de empreendimentos PAR, através da elaboração de um modelo descritivo. Para tanto, foram realizados sete estudos de caso, analisando o desenvolvimento de diferentes empreendimentos do PAR, além de entrevistas semi-estruturadas com diversos agentes do processo. A Etapa B teve como objetivo a captação de requisitos do cliente final de empreendimentos do PAR, realizada através de quatros estudos de caso. Na última etapa, foram realizados nove seminários, em oito cidades brasileiras, para apresentar os resultados a técnicos da CEF, Prefeituras Municipais e empresas construtoras. As principais contribuições deste trabalho dizem respeito a melhorias na captação de requisitos do cliente final e à compreensão da diversidade dos requisitos dos clientes finais desse modo de provisão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.