55 resultados para Redes interinstitucionales
Resumo:
O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.
Resumo:
Este trabalho enfoca a problemática da institucionalização, investigando a rede de apoio de adolescentes institucionalizados e o processo de reinserção familiar. A partir de uma revisão de literatura sobre institucionalização e da consideração dos abrigos de proteção como contextos de desenvolvimento, são apresentados dois estudos empíricos. O primeiro estudo objetivou investigar a percepção de adolescentes institucionalizados quanto à rede de apoio social e afetivo. Foram utilizadas entrevistas semi-estruturadas e o Mapa dos Cinco Campos em 35 participantes, de ambos sexos, com idade entre 11 e 16 anos. Os resultados do primeiro estudo apontam os adultos como principal fonte de apoio, especialmente os familiares e os monitores dos abrigos, sendo que o principal tipo de apoio foi o instrumental. A segunda pesquisa, um estudo de caso de uma adolescente de 12 anos, que esteve abrigada por suspeita de abuso sexual, objetivou compreender o processo de reinserção familiar, após um período de abrigamento. Foram utilizados os instrumentos Mapa dos Cinco Campos e FAST, entrevistas e levantamento em prontuários, além da inserção ecológica, possibilitando conhecer a percepção de rede de apoio social e afetivo, coesão e hierarquia da participante e, também, identificar os fatores de risco e proteção dos microssistemas família e abrigo. Os resultados indicam a presença de características disfuncionais na família da participante, como baixa coesão e desequilíbrio de poder, e de fatores de risco mais numerosos e expressivos, sobrepondo-se aos de proteção. Dessa forma, destaca-se a necessidade de trabalhos de capacitação com os profissionais dos abrigos, tendo em vista sua importância para os adolescentes, e de políticas de planejamento e acompanhamento dos processos de reinserção familiar, para que estas transições ecológicas possam ocorrer de forma satisfatória.
Resumo:
Novas tecnologias têm sido investigadas como soluções alternativas ao protocolo de gerenciamento de redes padrão, o SNMP. Nesse cenário, a tecnologia de Web Services (WS) vem se tornando bastante promissora, mas imaginar que ela irá substituir de imediato o SNMP não é uma abordagem factível, pois é provável que o SNMP continue sendo utilizado nos dispositivos de rede por um bom tempo. Além disso, os WS são recentes, necessitando maiores investigações com respeito a utilização no gerenciamento de redes. As atuais investigações realizadas comparam os WS com o SNMP em casos genéricos, não levando em consideração casos especí cos de gerenciamento. Nesse contexto, esta dissertação apresenta o desenvolvimento e a avaliação de duas implementações baseadas em WS, desenvolvidas no especí co contexto do gerenciamento distribuído por delega- ção e tendo a MIB Script, de nida pelo IETF, como base de desenvolvimento. A primeira implementação consiste na construção de um novo tipo de gateway WS para SNMP, denominado gateway em nível de serviço, que caracteriza-se por ser construído baseado nos serviços que um determinado módulo de MIB oferece. Isso proporciona um grau maior de abstração, na visão do gerente WS, na manipulação dos agentes SNMP e, também, diminui o número de mensagens trocadas entre o gerente WS e o gateway desenvolvido. A segunda implementação realiza a total substituição do SNMP no gerenciamento dos dispositivos, permitindo, com isso, um gerenciamento de redes completamente baseado em Web Services. A implementação consistiu na construção de um novo tipo de agente, denominado por agente orientado a serviços baseado em Web Services, ou apenas agente WS. O agente WS desenvolvido possui as mesmas características que o gateway em ní- vel de serviço, diferindo apenas na não utilização de SNMP no caso do agente WS. O gerenciamento das duas implementações é realizado através de um módulo desenvolvido e incorporado ao ambiente de gerenciamento de redes QAME. Esse módulo manipula as duas implementações da mesma maneira, uma vez que os serviços oferecidos por elas possuem a mesma interface de acesso. A avaliação realizada consistiu na comparação entre as duas implementações desenvolvidas neste trabalho e outras duas soluções de gerenciamento investigadas: o gateway em nível de objeto e uma implementação da MIB Script, denominada Jasmin. Os parâmetros de avaliação utilizados nas comparações foram o tráfego gerado e o tempo de resposta percebido. Como será visto ao nal, os resultados das comparações realizadas no caso especí co do gerenciamento por delega- ção são diferentes daqueles apresentados em investigações mais genéricas. Além disso, as duas implementações desenvolvidas neste trabalho demonstraram serem promissoras, apresentando resultados bastante satisfatórios com relação aos parâmetros avaliados.
Resumo:
Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.
Resumo:
A presente dissertação versa sobre a sincronização idêntica em redes de osciladores caóticos. Uma perspectiva razoavelmente histórica sobre a literatura da área é apresentada . O conceito de caos é introduzido junto com outras idéias da dinâmica não-linear: sistemas dinâmicos, exemplos de sistemas, atratores, expoentes de Liapunov, etc. A integração numérica de equações diferenciais é largamente utilizada, principalmente, para o cálculo de expoentes e o desenho do diagrama de fases. A sincronização idêntica é definida, inicialmente, em redes que não passam de um par de osciladores. A variedade de sincronização (conjunto de pontos no espaço de fases no qual a solução do sistema é encontrada se há sincronização) é determinada. Diferentes variantes de acoplamentos lineares são enfocadas: acoplamento interno, externo, do tipo mestre-escravo e birecional, entre outras. Para detectar sincronização, usa-se o conceito de expoente de Liapunov transversal, uma extensão do conceito clássico de expoente de Liapunov que caracteriza a sincronização como a existência de um atrator na variedade de sincronização. A exposição é completada com exemplos e atinge relativo detalhe sobre o assunto, sem deixar de ser sintética com relação à ampla literatura existente. Um caso de sincronização em antifase que usa a mesma análise é incluído. A sincronização idêntica também é estudada em redes de osciladores idênticos com mais de dois osciladores. As possibilidades de sincronização completa e parcial são explanadas. As técnicas usadas para um par de osciladores são expandidas para cobrir este novo tipo de redes. A existência de variedades de sincronização invariantes é considerada como fator determinante para a sincronização. A sincronização parcial gera estruturas espaciais, analisadas sob a denominação de padrões. Algumas relações importantes entre as sincronizações são explicitadas, principalmente as degenerescências e a relação entre a sincronização parcial e a sincronização completa do respectivo estado sincronizado para alguns tipos de acoplamento. Ainda são objetos de interesse as redes formadas por grupos de osciladores idênticos que são diferentes dos osciladores dos outros grupos. A sincronização parcial na qual todos os grupos de osciladores têm seus elementos sincronizados é chamada de sincronização primária. A sincronização secundária é qualquer outro tipo de sincronização parcial. Ambas são exemplificadas e analisadas por meio dos expoentes transversais e novamente por meio da existência de invariantes de sincronização. Obtém-se, então, uma caracterização suficientemente ampla, completada por casos específicos.
Resumo:
Neste trabalho mostramos que certa família de Rede de Mapas Acoplados de dimensão finita apresenta diferentes estados assintomáticos quando alguns parâmetros (incluindo o acoplamento) são variados, e então conseguimos mostrar a existência de uma transição de fases associando ao sistema uma dinâmica simbólica com símbolos +1, 0 e -1 nós descrevemos uma transição do tipo Ising caracterizada por estados assintóticos com apenas símbolos +1 ou apenas símbolo -1
Resumo:
Esta dissertação apresenta um levantamento da incidência de acidentes do trabalho nas atividades de construção, manutenção e instalação de redes de telecomunicações no Rio Grande do Sul. Os dados foram obtidos a partir da análise das CATs (Comunicação de Acidente do Trabalho), referentes aos anos de 2001 e 2002. São analisados o perfil dos trabalhadores, o tipo de atividade da empresa, a distribuição temporal dos acidentes, as partes do corpo atingidas, a natureza e a causa dos acidentes e das lesões. Os principais agentes causadores dos acidentes do trabalho, foram às escadas, os veículos e o esforço físico; a principal situação geradora de lesão foi o impacto de pessoa contra objeto; os tipos de lesões mais encontradas foram as contusões, fraturas e distensões; as partes do corpo atingidas foram os membros superiores, inferiores e dorso; os acidentes ocorreram em maior número nas primeiras horas trabalhadas, com os solteiros e o tipo de gravidade das lesões determinadas pelo maior número de afastamento com mais de 15 dias. Com os resultados obtidos, pretende-se subsidiar ações preventivas nestas atividades, pois com base nas principais causas de acidentes do trabalho é possível adotar medidas para reduzir o número e a gravidade dos acidentes.
Resumo:
O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.
Resumo:
Aplicações recentes no setor de automação industrial utilizam barramentos de campo para prover comunicação entre dispositivos. Estas aplicações normalmente exigem que os barramentos apresentem suporte tempo real. A garantia do adequado atendimento a requisitos temporais restritos é de fundamental importância para o correto funcionamento do sistema. Este documento apresenta um sistema de validação temporal para aplicações desenvolvidas utilizando tecnologias de barramentos de campo. O sistema desenvolvido, chamado BR-Tool, permite monitoração em tempo de execução de uma rede de barramento de campo, confrontando os dados obtidos com requisitos temporais previamente definidos pelo operador. O sistema BR-Tool é composto por dois elementos: um sub-sistema de aquisição de mensagens (placa de aquisição) e um sub-sistema de validação (ferramenta computacional). A placa de aquisição foi especialmente projetada para operar com diferentes interfaces de barramentos de campo, realizando as tarefas de captura de eventos, marcação temporal e salvamento de um histórico de eventos. A ferramenta de validação, que roda no computador, realiza as tarefas de filtragem de eventos, especificação de requisitos e validação temporal, permitindo diversos modos de visualização dos resultados. A comunicação entre a placa de aquisição e a ferramenta de validação é implementada por uma interface PCI, permitindo operar com velocidades de até 12Mbps.
Resumo:
Uma nova rede de polímeros interpenetrantes (IPN) baseada em poliuretana de óleo de mamona e poli(etileno glicol) e poli(metacrilato de metila) foi preparada para ser utilizada como eletrólito polimérico. Os seguintes parâmetros de polimerização foram avaliados: massa molecular do poli(etileno glicol) (PEG), concentração de PEG e concentração de metacrilato de metila. As membranas de IPN foram caracterizadas por calorimetria diferencial de varredura (DSC) e espectroscopia de infravermelho por transformada de Fourier (FT-IR). Os eletrólitos de redes de polímeros interpenetrantes (IPNE) foram preparados a partir da dopagem com sal de lítio através do inchamento numa solução de 10% em massa de LiClO4 na mistura de carbonato de etileno e carbonato de propileno na razão mássica de 50:50. As IPNEs foram caracterizadas por espectroscopia de impedância eletroquímica e Raman. As IPNEs foram testadas como eletrólito polimérico em supercapacitores. As células capacitivas foram preparadas utilizando eletrodos de polipirrol (PPy). Os valores de capacitância e eficiência foram calculados por impedância eletroquímica, voltametria cíclica e ciclos galvonostáticos de carga e descarga. Os valores de capacitância obtidos foram em torno de 90 F.g-1 e eficiência variou no intervalo de 88 a 99%. Os valores de densidade de potência foram superiores a 250 W.kg-1 enquanto que a densidade de energia variou de 10 a 33 W.h.kg-1, dependendo da composição da IPNE. As características eletroquímicas do eletrólito formado pela IPN-LiClO4 (IPNE) foram comparadas aos eletrólitos poliméricos convencionais, tais como poli(difluoreto de vinilideno)-(hexafluorpropileno) ((PVDF-HFP/LiClO4) e poliuretana comercial (Bayer desmopan 385) (PU385/LiClO4). As condutividades na temperatura ambiente foram da ordem de 10-3 S.cm-1. A capacitância da célula utilizando eletrodos de PPy com eletrólito de PVDFHFP foi de 115 F.g-1 (30 mF.cm-2) e 110 F.g-1 (25 mF.cm-2) para a célula com PU385 comparadas a 90 F.g-1 (20 mF.cm-2) para a IPNE. Os capacitores preparados com eletrólito de IPNE apresentaram valores de capacitância inferior aos demais, entretanto provaram ser mais estáveis e mais resistentes aos ciclos de carga/descarga. A interpenetração de duas redes poliméricas, PU e PMMA produziu um eletrólito com boa estabilidade mecânica e elétrica. Um protótipo de supercapacitor de estado sólido foi produzindo utilizando eletrodos impressos de carbono ativado (PCE) e o eletrólito polimérico de IPNE. A técnica de impressão de carbono possui várias vantagens em relação aos outros métodos de manufatura de eletrodos de carbono, pois a área do eletrodo, espessura e composição são variáveis que podem ser controladas experimentalmente. As células apresentaram uma larga janela eletroquímica (4V) e valores da capacitância da ordem de 113 mF.cm-2 (16 F.g-1). Métodos alternativos de preparação do PCE investigados incluem o uso de IPNE como polímero de ligação ao carbono ativado, estes eletrodos apresentaram valores de capacitância similares aos produzidos com PVDF. A influência do número de camadas de carbono usadas na produção do PCE também foi alvo de estudo. Em relação ao eletrólito polimérico, o plastificante e o sal de lítio foram adicionados durante a síntese, formando a IPNGel. As células apresentaram alta capacitância e boa estabilidade após 4000 ciclos de carga e descarga. As membranas de IPN foram testadas também como reservatório de medicamento em sistemas de transporte transdérmico por iontoforese. Os filmes, mecanicamente estáveis, formaram géis quando inchado em soluções saturadas de lidocaina.HCl, anestésico local, em propileno glicol (PG), poli(etileno glicol) (PEG400) e suas misturas. O grau de inchamento em PG foi de 15% e 35% em PEG400. Agentes químicos de penetração foram utilizados para diminuir a resistência da barreira causada pela pele, dentre eles o próprio PG, a 2-pirrolidinona (E1) e a 1-dodecil-2-pirrolidinona (E2). Os géis foram caracterizados por espectroscopia de impedância eletroquímica e transporte passivo e por iontoforese através de uma membrana artificial (celofane). O sistema IPN/ lidocaina.HCl apresentou uma correlação linear entre medicamento liberado e a corrente aplicada. Os melhores resultados de transporte de medicamento foram obtidos utilizando o PG como solvente.
Resumo:
Com as recentes tecnologias de fabricação é possível integrar milhões de transistores em um único chip, permitindo a criação dos chamados System-on-Chip (SoCs), que integram em um único chip um grande número de componentes (tipicamente blocos reutilizáveis conhecidos por núcleos). Quanto mais complexos forem estes sistemas, melhores técnicas de projeto serão necessárias para também reduzir o tempo e custo do projeto. Uma destas técnicas, chamada de Network-on-Chip (NoC), permite melhorar a performance da comunicação entre os núcleos e, ao mesmo tempo, fornecer uma plataforma de comunicação escalável e que pode ser reutilizada para um grande número de sistemas. Uma NoC pode ser definida como uma estrutura de roteadores e canais ponto-a-ponto que interconectam os núcleos de um sistema, provendo o suporte de comunicação entre eles. Os dados são transmitidos pela rede na forma de mensagens, que podem ser divididas em unidades menores chamadas de pacote. Uma das desvantagens desta plataforma de comunicação é o impacto na área do sistema causado pelos roteadores. Dentro deste contexto, este trabalho apresenta uma arquitetura de roteador de baixo custo, com o objetivo de permitir o uso de NoCs em sistemas onde a área do roteador representará um grande impacto no custo do sistema. A arquitetura deste roteador, chamado de Tonga, é baseada em um roteador chamado RASoC, um soft-core para SoCs. Nesta dissertação será apresentada também uma rede heterogênea, baseada na rede SoCIN, e composta por dois tipos de roteadores – RASoC e Tonga. Estes roteadores visam diferentes objetivos: Rasoc alcança uma maior performance comparada ao Tonga, mas ocupa área consideravelmente maior. Potencialmente, uma NoC heterogênea otimizada pode ser desenvolvida combinando estes roteadores, procurando o melhor compromisso entre área e latência. Os modelos desenvolvidos permitem a estimativa de área e do desempenho das arquiteturas de comunicação propostas e são apresentados resultados de performance para algumas aplicações.
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.
Resumo:
Este trabalho apresenta um sistema de classificação de voz disfônica utilizando a Transformada Wavelet Packet (WPT) e o algoritmo Best Basis (BBA) como redutor de dimensionalidade e seis Redes Neurais Artificiais (ANN) atuando como um conjunto de sistemas denominados “especialistas”. O banco de vozes utilizado está separado em seis grupos de acordo com as similaridades patológicas (onde o 6o grupo é o dos pacientes com voz normal). O conjunto de seis ANN foi treinado, com cada rede especializando-se em um determinado grupo. A base de decomposição utilizada na WPT foi a Symlet 5 e a função custo utilizada na Best Basis Tree (BBT) gerada com o BBA, foi a entropia de Shannon. Cada ANN é alimentada pelos valores de entropia dos nós da BBT. O sistema apresentou uma taxa de sucesso de 87,5%, 95,31%, 87,5%, 100%, 96,87% e 89,06% para os grupos 1 ao 6 respectivamente, utilizando o método de Validação Cruzada Múltipla (MCV). O poder de generalização foi medido utilizando o método de MCV com a variação Leave-One-Out (LOO), obtendo erros em média de 38.52%, apontando a necessidade de aumentar o banco de vozes disponível.
Resumo:
Este trabalho identifica as principais características e relevância do setor de serviços no cenário econômico brasileiro, discutindo a importância do desenvolvimento dos sistemas gerenciais, em especial aqueles dedicados ao gerenciamento estratégico dos custos e da cadeia de valor. Para o desenvolvimento do tema discute-se inicialmente as características do setor de serviços e os principais métodos de acumulação de custos e a partir deste referencial teórico é apresentada, em estudo de caso, a realidade de um importante grupo empresarial e a necessidade de revisão de seus modelos gerenciais no que se refere a metodologia utilizada e suas deficiências. Aplica-se, no desenvolvimento deste estudo de caso, os conceitos da gestão estratégica de custos e conclui-se que para a manutenção de diferenciais competitivos sustentáveis é indispensável construir um sistema adequado de custeio, servindo como referencial o sistema de custos baseado em atividades.