16 resultados para Reconfiguração de redes de distribuição. Perdas. Recomposição de serviço. Planejamento de sistemas de distribuição. Operação de sistemas de distribuição. Parâmetros de sensibilidade
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Com a crescente integração dos mercados mundiais, novos agentes econômicos têm afetado o cenário das organizações, exigindo das mesmas o desenvolvimento de novas competências estratégicas. O ritmo da competição global e a mudança tecnológica estão forçando as organizações a lutar pela busca do diferencial competitivo. No setor agroalimentar as ameaças e desafios apontam para a concentração e ampliação das exigências das redes de distribuição, aumentando o seu poder de barganha em relação aos fornecedores. Este estudo trata da gestão estratégica de organizações agroindustriais locais e suas relações com o setor supermercadista, seu principal cliente. Tem um caráter exploratório, tendo em vista os poucos trabalhos com este enfoque junto à agroindústrias locais ou regionais de médio e pequeno porte. Ao buscar as informações junto a empresas da rede supermercadista, sobre os critérios mais importantes para a definição do perfil dos seus fornecedores agroalimentares, procura-se compreender como organizações agroindustriais administram esses critérios e estabelecem a(s) ênfase(s) estratégica(s), para a sua sustentação nesse mercado. Seguindo a evolução histórica e conceitual da produção acadêmica nos campos da organização industrial e administração estratégica e, mais importante, buscando sempre pontos de interface, nas diversas abordagens quanto à organização das empresas, seja na obtenção e utilização dos seus recursos e capacitações internas, seja na articulação com outras organizações no seu ambiente de negócios, buscou-se elementos comuns, não excludentes, que transitam nas diversas correntes teóricas, e que permitam uma compreensão consistente acerca das estratégias competitivas dessas empresas. A relevância teórica desse estudo está na construção de um modelo conceitual (framework) para a análise da gestão estratégica de empresas agroindustriais locais. Quanto à relevância prática, ressalta-se a contribuição para o entendimento da dinâmica das transformações do setor agroalimentar, especialmente as novas exigências que o setor varejista “impõe” às empresas agroindustriais e as possíveis estratégias de sobrevivência para organizações locais afetadas por este processo. A ação de pesquisa junto aos empresários, proporcionou um exercício de reflexão que permitiu explicitar o pensamento estratégico, não muito usual em empresas desse porte. Ao organizar as questões e as discussões à luz das cinco dimensões competitivas – negociação, flexibilidade, dependability, inovatividade e imagem – que se constituíram na base conceitual das ênfases estratégicas, foi possível estabelecer o caminho percorrido por cada organização.
Resumo:
Este trabalho pretendeu minimizar a incerteza na tomada de decisões para projetos mais sustentáveis de intervenção em assentamentos precários. Para sua realização foi utilizada a estratégia de estudo de caso, optando-se pela escolha de um único estudo, na ilha Grande dos Marinheiros, aliada ao uso do método baseado em dados (Grounded Theory), como método para organização das informações coletadas. O estudo utilizou esta metodologia de análise sistêmica, que permitiu verificar as interinfluências entre os diversos aspectos apresentados pelo sítio (aspectos ecológicos do meio ambiente, aliados ao processo antrópico de alteração do habitat). Isto resulta na definição de categorias e subcategorias e seus cruzamentos, através de um sistema de matrizes, levou a constatação da categoria central. Assim, o abastecimento de água foi considerado como o tópico que deveria ser priorizado no processo de tomada de decisões. O sistema de cruzamento sistêmico também permitiu a criação de uma linha mestra (eixo principal) a ser utilizada na definição de futuros projetos de intervenção urbanohabitacional, que mostrou as dificuldades no abastecimento de água e as conseqüências advindas de sua estruturação. Ao final do trabalho, constataram-se as seguintes contribuições: não se recomenda a estruturação do transporte viário, o uso de energia eólica, hidroelétrica ou biomassa e estruturação de redes de distribuição de água entre continente e ilhas. Por outro lado, o estudo salienta as seguintes oportunidades: o saneamento deficitário possibilita a introdução de alternativas diferenciadas, como a utilização de banheiros secos e geração de biogás. As facilidades de obtenção das águas de chuva e a possibilidade real de melhora das águas superficiais devem ser opções preferenciais no abastecimento de água e a estruturação de um sistema de transporte fluvial (coletivo e individual) entre ilhas e continente.
Resumo:
Este trabalho apresenta um sistema de classificação de voz disfônica utilizando a Transformada Wavelet Packet (WPT) e o algoritmo Best Basis (BBA) como redutor de dimensionalidade e seis Redes Neurais Artificiais (ANN) atuando como um conjunto de sistemas denominados “especialistas”. O banco de vozes utilizado está separado em seis grupos de acordo com as similaridades patológicas (onde o 6o grupo é o dos pacientes com voz normal). O conjunto de seis ANN foi treinado, com cada rede especializando-se em um determinado grupo. A base de decomposição utilizada na WPT foi a Symlet 5 e a função custo utilizada na Best Basis Tree (BBT) gerada com o BBA, foi a entropia de Shannon. Cada ANN é alimentada pelos valores de entropia dos nós da BBT. O sistema apresentou uma taxa de sucesso de 87,5%, 95,31%, 87,5%, 100%, 96,87% e 89,06% para os grupos 1 ao 6 respectivamente, utilizando o método de Validação Cruzada Múltipla (MCV). O poder de generalização foi medido utilizando o método de MCV com a variação Leave-One-Out (LOO), obtendo erros em média de 38.52%, apontando a necessidade de aumentar o banco de vozes disponível.
Resumo:
Diretorio TesteAs recentes mudanças de estrutura no sistema elétrico (geração, transmissão, distribuição e comercialização de energia) têm motivado o uso da geração distribuída e, em particular, pequenos produtores independentes conectados ao sistemas de distribuição e subtransmissão. Sendo recente, ainda há muitas lacunas quanto ao entendimento do impacto desta nova topologia na estabilidade e outros índices de desempenho do sistema. O presente trabalho está focado na conexão dos produtores independentes aos sistemas de distribuição e subtransmissão e visa contribuir quanto ao estudo teórico-prático deste problema, com ênfase nos aspectos de modelagem dos componentes do sistema. Este estudo faz parte do projeto de pesquisa “Impacto de Produtores Independentes e Autoprodutores Conectados aos sistemas de distribuição e subtransmissão", desenvolvido pela UFRGS com financiamento da CEEE. Como as unidades de geração distribuída são conectadas às redes de distribuição e transmissão, a distância entre estes geradores e as cargas é menor comparativamente às usinas de grande porte. Existe ainda a questão dos produtores independentes serem de potências menores e, portanto, mais suscetíveis às variações de carga da rede em que estão ligados. Devido a estes e outros fatores, uma melhor análise dos modelos estáticos e dinâmicos dos diversos componentes do sistema de potência dentro desta nova topologia se faz necessária. Um dos aspectos considerados neste trabalho, foi o estudo da influência da resistência da linha na análise da geração distribuída nas linhas de distribuição. Esta foi uma das contribuições deste trabalho e foi realizada por meio de simulações considerando vários modelos de geradores e cargas. Outra contribuição foi a construção do sistema consistindo de um protótipo de um produtor independente conectado a rede de distribuição, composto de um gerador de 100kVA conectado à rede elétrica, contendo cargas resistivas e indutivas, podendo serem ligadas/desligadas, emulando condições de operação similares às reais. A construção do protótipo também envolveu um sistema para simulação, um sistema supervisório para operação e realização de ensaios, e os algoritmos necessários para tal. Este sistema permite a simulação dinâmica de modelos de sistemas elétricos de potência em diversos cenários e a verificação experimental do comportamento dos grupos geradores em diversas condições de operação, incluindo a análise de desempenho estático, ensaios de curto circuito e as variações de despacho ativo e reativo de potência. Obtendo com isso uma melhor identificação e quantificação do impacto dos produtores independentes e autoprodutores na análise de sistemas elétricos de potência.
Resumo:
Este trabalho trata de um problema de modelagem de redes de distribuição, que consiste em determinar a quantidade e a localização de centros de distribuição, bem como o estabelecimento da capacidade nominal, alocação de clientes e de fornecedores e determinação de quais famílias de produtos devem ser estocadas em cada depósito, de forma a minimizar a soma dos custos de armazenagem e de transporte. É exposta uma sistemática de análise para a localização de depósitos, onde são listadas as principais etapas a serem seguidas. Ainda, são apresentados dois modelos estratégicos, baseados em técnicas matemáticas distintas, que são aplicados à localização de multi-depósitos em uma cadeia com multi-produtos. São propostos um algoritmo de otimização, baseado em programação linear inteira-mista, e um modelo de localização no plano aplicado a múltiplas instalações, capazes de analisar toda a cadeia logística. Ilustra-se a aplicação destes modelos através do estudo de um caso prático em uma empresa de suprimentos industriais. Por fim, as soluções propostas pelos modelos são avaliadas através de análise de sensibilidade. Estes resultados são analisados de modo a estabelecer conclusões em relação à eficiência, precisão, praticidade e aplicabilidade dos modelos propostos.
Resumo:
O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.
Resumo:
A colaboração visual, recurso que permite a troca de informações de forma remota, é construída em cima de uma combinação de diversas ferramentas, na qual estão incluídos: videoconferência, “streaming de vídeo”, compartilhamento e transferência de informações e imagens (colaboração em cima de dados) entre outros. Estas soluções, vêm utilizando cada vez mais, o protocolo IP e a Internet para o transporte dos sinais. Com este objetivo, o ITU-T lançou a recomendação H.323, que definiu um padrão confiável, que permite a troca de sinais multimídia em redes de pacotes sem qualidade de serviço. Entretanto, com o passar dos anos percebeu-se que aplicações que manipulam voz e vídeo, precisam que as redes de pacotes tenham capacidade de prover características semelhantes às oferecidas por redes de comutação por circuito, para o transporte dos sinais multimídia. Neste sentido, redes IP podem utilizar mecanismos de qualidade de serviço como o DiffServ, para prover tratamento adequado dos sinais de áudio e vídeo e assim, aumentar a qualidade percebida pelos usuários. As aplicações de colaboração visual são notáveis candidatas a utilização de mecanismos de QoS da rede. Neste caso é desejável que estas aplicações estejam aptas a especificar o nível de qualidade de serviço desejado e requisitem este nível de serviço para a rede. Neste contexto, o trabalho apresenta um modelo para o desenvolvimento de um terminal H.323 capaz de requisitar qualidade de serviço para a rede IP, visando aumentar a qualidade percebida pelo usuário em relação aos sinais de mídia. Neste terminal foi incluída uma entidade chamada de EPQoSE, responsável pela sinalização de QoS em benefício do terminal. Além disso, o modelo proposto neste texto apresenta um sistema de gerenciamento baseado em políticas, responsável por controlar as requisições de QoS dos terminais H.323, dentro de um domínio. Como o terminal precisa se comunicar com estas entidades, apresentamos no trabalho, a maneira como ele faz isso e definimos um conjunto de funções que devem ser implementadas pelo QoSM no terminal.
Resumo:
A variação temporal e espacial da ecologia de lagos, estuários e reservatórios está relacionada com a variação na composição da população de fitoplâncton, já que esta comunidade é a base da cadeia alimentar marinha e lacustre. Esta pesquisa desenvolveu um modelo para estimativa da dinâmica de biomassa de fitoplâncton, considerando os mecanismos de transporte no meio aquático, crescimento e perdas de sua biomassa. O modelo possui três módulos: (a) hidrodinâmico, que trata dos fluxos quantitativos do meio, associado a um algoritmo de secagem/inundação; (b) de transporte, que trata dos mecanismos de transporte das substâncias no meio; e (c) biológico, que retrata os mecanismos biológicos relacionados ao fitoplâncton. O módulo hidrodinâmico foi resolvido por um esquema semi-implícito de diferenças finitas, com uma abordagem mista Euleriana-Lagrangiana para os termos advectivos. Para os módulos restantes foi utilizado um esquema mais simples, de diferenças centrais. O modelo foi aplicado no sistema formado pela Lagoa Mangueira e Banhado do Taim localizado na parte sul costeira do estado do Rio Grande do Sul. Este sistema está inserido no Sistema Hidrológico do Taim como unidade de conservação federal, onde se desenvolve o projeto PELD (Pesquisas Ecológicas de Longa Duração). A hidrodinâmica do sistema foi ajustada e verificada apresentando bons resultados. Testes de secagem e inundação mostraram que as tendências esperadas foram obtidas. O aprimoramento da solução numérica do modelo foi comprovado através de testes de preservação de volume e massa em sistemas conservativos. A análise de sensibilidade dos parâmetros do módulo biológico mostrou que os parâmetros para os quais o modelo é mais sensível a alterações são aqueles relacionados aos efeitos de temperatura nas algas e as perdas por respiração e consumo por zooplâncton. Os cenários de análise propostos proporcionaram uma maior compreensão do transporte do material particulado suspenso e do material escalar genérico, assim como a dinâmica e as florações de algas no sistema em condições físicas e meteorológicas reais.
Resumo:
O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.
Resumo:
Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
O objetivo principal deste trabalho é elaborar uma sistemática para estruturar uma rede logística reversa de distribuição para o sistema de coleta, processamento e recuperação de resíduos da construção civil. O trabalho foi estruturado em três partes, sendo que na primeira parte elaborou-se uma introdução geral à logística e à logística reversa em particular, definindo uma estrutura de suporte ao estudo de caso e às conclusões do trabalho; na segunda parte procurou-se vincular a logística reversa à sustentabilidade; e na terceira parte elaborou-se uma sistemática para a rede de distribuição, definindo os dados a serem utilizados na aplicação dos modelos, fazendo análises e tirando conclusões a respeito dos resultados obtidos e indicando possíveis desenvolvimentos futuros para o trabalho. Para a formatação da rede desenvolveu-se o modelo de rede reversa de recuperação de resíduos – MRRR, baseado em programação linear inteira mista. Para aplicação do MRRR ao caso dos resíduos de construção e demolição – RCD no município de Curitiba, definiu- se instalações de transbordo e de reciclagem candidatas, através da aplicação de um modelo de localização de múltiplos centros de gravidade – MMCG. Como nós fixos da rede foram considerados as zonas de consumo e de geração, os mercados secundários de recicláveis e recicladores e o aterro sanitário. Os dados para formatação da rede foram gerados pelo MRRR. Como produtos deste trabalho tem-se a sistemática, que pode ser aplicada para a estruturação de redes similares, e a formatação da rede reversa para os resíduos de construção e demolição em Curitiba. Como conclusão, entre outras, verificou-se que a redução da alíquota de imposto pode ser utilizada como incentivo à melhoria da qualidade do resíduo gerado.
Resumo:
Os motivos provocadores deste trabalho se debruçam sobre uma das inúmeras variantes da relação da sociedade com a natureza, a qual ocorre com freqüência como se fosse um confronto. Pretende-se desenvolver análises para demonstrar o grau de redução da mata ciliar, de evidenciar a sua relação e importância quanto aos processos morfogenéticos nas margens dos rios e de avaliar que a sua recomposição é uma alternativa viável e de grande importância, como agente capaz de diminuir a intensidade desses processos. A identificação e localização dos pontos de interesse do estudo são feitas a partir da cartografia das áreas de risco mais suscetíveis a esses processos. Além disso, esses pontos no rio são selecionados com a intenção de constituírem subsídios para possíveis projetos de recomposição, atrelados a projetos que incorporem o aspecto educativo. A área deste estudo foi analisada com o uso da carta topográfica na escala de 1:50.000, levantamento fotográfico, croquis, relatos e vídeos. Também foram realizadas visitas, em diversas ocasiões, quando então se procede a identificação das áreas de risco e dos locais onde devem ser implementadas ações de proteção das margens através do plantio de árvores, com a finalidade de restabelecer a vegetação. Isto é, a quantidade a ser introduzida naquele local, como também as espécies necessárias para a recomposição da mata ciliar. A partir destes levantamentos identifica-se 30 espécies, utilizadas na recomposição, a opção de manejo a ser empregado em 20 locais estabelecidos para o plantio e os quatro locais onde é necessária a aplicação da técnica de enrocamento. Como forma de monitoramento utiliza-se a técnica dos pinos de erosão/deposição em quatro locais distintos. Na execução dos plantios, sempre que o local oferece condições adequadas, há a participação dos alunos das redes de ensino, das escolas municipais, estaduais e particulares, assim como das pessoas da comunidade e dos agricultores proprietários das áreas utilizadas.
Resumo:
Esta dissertação apresenta um levantamento da incidência de acidentes do trabalho nas atividades de construção, manutenção e instalação de redes de telecomunicações no Rio Grande do Sul. Os dados foram obtidos a partir da análise das CATs (Comunicação de Acidente do Trabalho), referentes aos anos de 2001 e 2002. São analisados o perfil dos trabalhadores, o tipo de atividade da empresa, a distribuição temporal dos acidentes, as partes do corpo atingidas, a natureza e a causa dos acidentes e das lesões. Os principais agentes causadores dos acidentes do trabalho, foram às escadas, os veículos e o esforço físico; a principal situação geradora de lesão foi o impacto de pessoa contra objeto; os tipos de lesões mais encontradas foram as contusões, fraturas e distensões; as partes do corpo atingidas foram os membros superiores, inferiores e dorso; os acidentes ocorreram em maior número nas primeiras horas trabalhadas, com os solteiros e o tipo de gravidade das lesões determinadas pelo maior número de afastamento com mais de 15 dias. Com os resultados obtidos, pretende-se subsidiar ações preventivas nestas atividades, pois com base nas principais causas de acidentes do trabalho é possível adotar medidas para reduzir o número e a gravidade dos acidentes.
Resumo:
Algoritmos ótimos na extração de componentes principais com aprendizado não-supervisionado em redes neurais de múltiplos neurônios de saída são não-locais, ou seja, as modificações em uma dada sinapse entre dois neurônios dependem também da atividade de outros neurônios. Esta rede ótima extrairá as principais componentes dos dados e submetidos à sua primeira camada. As principais componentes são as projeções destes vetores nos autovalores máximos da matriz de correlação Gij = (eiej), onde a média (-) é sobre a distribuição de e. Existem fortes evidências indicando que sinapses biológicas só se modificam via regras locais, como por exemplo a regra de Hebb. Mas se aplicarmos regras locais numa rede com múltiplas saídas, todos os neurônios da saída serão equivalentes e darão respostas redundantes. A rede será bastante ineficiente. Um modo de contornar este problema é através da restrição dos campos receptivos dos neurônios de saída. Se cada neurônio acessar diferentes partes dos estímulos de entrada, a redundância diminui significativamente. Em contrapartida, ao mesmo tempo que a redundância diminui, também diminui a informação contida em cada neurônio; assim, devemos balancear os dois efeitos otimizando o campo receptivo. O valor ótimo, em geral, depende da natureza dos estímulos, sua estatística, e também do ruído intrínseco à rede. Objetivamos com este trabalho determinar a estrutura ótima de campos receptivos com aprendizado não-supervisionado para uma rede neural de uma camada em diversas condições medindo seu desempenho a partir de técnicas de reconstrução.