840 resultados para Equalização Adaptativa. Redes Neurais. Sistemas Ópticos. Equalizador Neural


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo busca a compreensão de uma rede social através da Teoria dos Sistemas Vivos. Por sistema vivo entende-se aquele que, mantendo sua organização distinta por um observador (identidade sistêmica), realiza câmbios em sua estrutura (elementos constituintes) no processo de produção de si mesmo (autopoiese). Por serem abertos ao fluxo de matéria e energia, os sistemas autopoiéticos realizam seus câmbios estruturais a partir de interações com outros sistemas, ou acoplamentos estruturais. É feita uma breve contextualização teórica a respeito das descobertas da física contemporânea até a noção de redes autopoiéticas seu uso na psicologia social e institucional. Foi escolhida como objeto de estudo a Rede Integrada de Serviços do Bairro Restinga, em Porto Alegre, através da observação de suas reuniões (diários de campo) e transcrições de suas atas, bem como documentos enviados pela e para a Rede como sistema. São analisados três momentos de sua autopoiese: sua constituição como espaço aberto e múltiplo, seus movimentos com fins organizativos (auto-regulação) e um acoplamento com outro sistema. Por fim, discute-se a importância da pesquisa, pela sua integração entre a teoria dos sistemas vivos e a possibilidade de uma nova sociedade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o objetivo de melhor se adaptar ao ambiente de competição (informacional) global, que se estrutura e se impõe a partir de uma ´divisão inter-regional do trabalho´, as regiões tendem a desenvolver estratégias de planejamento regional e urbano com o objetivo de impulsionar o parque produtivo informacional local. Intentam desta maneira compôr mecanismos locais que permitam a formação de um Sistema Local de Inovação, baseado na interação sinergética entre os atores sociais. Esta articulação regional trabalha em diversas esferas espaciais (e consequentemente temporais), uma vez que a fluida lógica estrutural do sistema informacional global (´espaço de fluxos´) difere dos mecanismos locais de articulação, pois estes estão ligados teluricamente às tradições culturais (´espaço de lugares´). Segundo Castells, o ´espaço de fluxos´ é definido como sendo um sistema de alcance global estruturado em redes (nós e eixos) permeadas por informações que circulam (eletronicamente) instantaneamente. Porém a dinâmica do sistema é gerada a partir do historicamente construído ´espaço de lugares´(local), articulado reflexivamente a partir da ação de três instituições internas (reconhecidas pelo modelo da Hélice Tripla como: universidades, empresas e governo). De maneira geral, podemos observar que a universidade, enquanto instituição empreendedora e voltada para a produção de inovações informacionais, passa a exercer importante função catalisadora deste processo de organização das forças produtivas regionais (a nível de ´espaço de lugares´) Reconhecendo que há uma tendência à incompatibilidade entre as esferas espaciais de articulação citadas (embora elas tenham uma existência ativa), esta dissertação irá sugerir a pertinência da observação de uma articulação espacial híbrida, tanto global-informacional quanto local-cultural (denominada ´espaço híbrido´), atuando estrategicamente na construção dos Sistemas Locais de Inovação. Desta maneira, com a finalidade de estruturar espacialmente os Sistemas Locais de Inovação, uma das principais estratégias que o planejador regional dispõe é a da formação e potencialização de clusters espaciais de inovação, na forma de programas de criação de pólos e/ou parques tecnológicos (e/ou tecnópoles). Tendo como objetivo a criação de um processo produtivo local sinergético e informacional, são projetadas e aplicadas políticas industriais e urbanas de longo prazo que buscam retirar o máximo possível da proximidade espacial existente e/ou induzida. Como estudo de caso, serão analisados projetos intra-urbanos atuantes nas áreas das Ciências da Vida. Inicialmente serão apresentados quatro casos internacionais, para por fim serem comparados ao projeto Porto Alegre Tecnópole (e em especial ao projeto Cidade Saúde de Porto Alegre).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o advento dos processos submicrônicos, a capacidade de integração de transistores tem atingido níveis que possibilitam a construção de um sistema completo em uma única pastilha de silício. Esses sistemas, denominados sistemas integrados, baseiam-se no reuso de blocos previamente projetados e verificados, os quais são chamados de núcleos ou blocos de propriedade intelectual. Os sistemas integrados atuais incluem algumas poucas dezenas de núcleos, os quais são interconectados por meio de arquiteturas de comunicação baseadas em estruturas dedicadas de canais ponto-a-ponto ou em estruturas reutilizáveis constituídas por canais multiponto, denominadas barramentos. Os futuros sistemas integrados irão incluir de dezenas a centenas de núcleos em um mesmo chip com até alguns bilhões de transistores, sendo que, para atender às pressões do mercado e amortizar os custos de projeto entre vários sistemas, é importante que todos os seus componentes sejam reutilizáveis, incluindo a arquitetura de comunicação. Das arquiteturas utilizadas atualmente, o barramento é a única que oferece reusabilidade. Porém, o seu desempenho em comunicação e o seu consumo de energia degradam com o crescimento do sistema. Para atender aos requisitos dos futuros sistemas integrados, uma nova alternativa de arquitetura de comunicação tem sido proposta na comunidade acadêmica. Essa arquitetura, denominada rede-em-chip, baseia-se nos conceitos utilizados nas redes de interconexão para computadores paralelos. Esta tese se situa nesse contexto e apresenta uma arquitetura de rede-em-chip e um conjunto de modelos para a avaliação de área e desempenho de arquiteturas de comunicação para sistemas integrados. A arquitetura apresentada é denominada SoCIN (System-on-Chip Interconnection Network) e apresenta como diferencial o fato de poder ser dimensionada de modo a atender a requisitos de custo e desempenho da aplicação alvo. Os modelos desenvolvidos permitem a estimativa em alto nível da área em silício e do desempenho de arquiteturas de comunicação do tipo barramento e rede-em-chip. São apresentados resultados que demonstram a efetividade das redes-em-chip e indicam as condições que definem a aplicabilidade das mesmas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sistemas de recomendação baseados cooperação indireta podem ser implementados em bibliotecas por meio da aplicação de conceitos e procedimentos de análise de redes. Uma medida de distância temática, inicialmente desenvolvida para variáveis dicotômicas, foi generalizada e aplicada a matrizes de co-ocorrências, permitindo o aproveitando de toda a informação disponível sobre o comportamento dos usuários com relação aos itens consultados. Como resultado formaram-se subgrupos especializados altamente coerentes, para os quais listas-base e listas personalizadas foram geradas da maneira usual. Aplicativos programáveis capazes de manipularem matrizes, como o software S-plus, foram utilizados para os cálculos (com vantagens sobre o software especializado UCINET 5.0), sendo suficientes para o processamento de grupos temáticos de até 10.000 usuários.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The National Water Management Policy was defined by Law 9.433/97 (Water Act), establishing the hydrographic basin as the management unity, independently of geographic limits and respective federal organisms. Nevertheless, water management entities and instruments are directly associated to different federal entities located within the same basin, and depend on them for being effective. The absence of law mechanisms that conciliate the various requisitions of federal organisms located in the same basin is a challenge still without brazilian law support. This study describes the integration process of information systems in Paraíba do Sul river basin. It also emphasizes integration restrictions of these systems, the cooperation level and the instruments used by the various actors and federal organisms in order to meet National Water Management Policy objectives. The management instrument Water Management Information System is presented as an important component that helps the stakeholders decision making process involved in water management, respecting federalism and the water domains defined in the brazilian constitution, and according to the policy established in the Water Act. In theoretical aspects, this work presents the basic concepts of National Water Management Policy institutional arrangement, considering the network aspects in public policy, the limits imposed by federalism and the way that the water domains is defined in the brazilian constitution and according to the brazilian Water Act. Besides, it identifies the most significant questions related with information systems implementation in public administration and water management. It also illustrates how cooperative federalism and information systems may create conditions that do guarantee the National Water Management Policy management instruments operationality within a hydrographic basin. The action research method was used to develop the research and the selected entity was the Fundação Superintendência Estadual de Rios e Lagoas (Serla). Serla was the water management entity in Rio de Janeiro state, at the research beginning. Others methods as bibliographic and documentary research were also used, aiming to describe the hydrographic basin, as well as the processes and systems concerned with the implementation of the National Water Management Policy in Paraíba do Sul basin.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work has as main objective the development of a key factors¿ model for the quality of Home Broker systems. An explanatory research was performed, based on a quantitative approach. To achieve this goal, some theoretical models of technology acceptance (TAM, TRA, TPB and IDT), reliability and quality of service were reviewed. It was proposed an extended key factors¿ model and developed a questionnaire, which was the research instrument used in this study. The questionnaire was applied over the Internet, from which was obtained a participation of 113 valid respondents, all of them users of Home Broker system. Once performed the data collection, statistical tests were used for the Factorial Analysis in order to achieve a definitive model. The key factors found were Perceived Usefulness, Perceived Ease of Use, Subjective Norms, Compatibility, Reliability and Relative Advantage. Some hypotheses from the model were also tested to investigate the relationship between the importance given to the factors and the resulting degree of satisfaction about quality of service. As a result of the study, a key factors¿ model for the quality of Home Broker systems was established, and identified that the factor Compatibility" has more explanatory power than the others."

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Elabora uma estrutura conceitual para o estudo da automação comercial em redes de supermercados e no comércio em geral. Discute a montagem de sistemas de informação de marketing e de suporte à decisão, cadeia de valor aplicada a supermercados, benefícios da automação e equipamentos utilizados. Apresenta pesquisa de campo com as maiores redes de supermercados do país, onde é analisada e avaliada a situação da automação comercial nestas empresas, além de sugerir e mostrar várias direções e tendências do processo

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre a criação de redes sociais eletrônicas e o papel estruturante do Software Livre e de Código Aberto (SL/CA), a partir da experiência do Projeto Rede de Atenção à Criança e ao Adolescente do Programa Pró-Menino, da Fundação Telefônica. Para tanto, foi necessário caminhar por diferentes áreas do conhecimento, para compreender os vários aspectos das redes sociais eletrônicas e, com isso, construir uma visão multifacetada do problema. Esse percurso foi construído ao longo de dez meses de trabalhos, com oito municípios do Estado de São Paulo e com a Fundação Telefônica, até a criação de um software, a partir da seguinte pergunta: “o que faz um software de rede eletrônica ter sucesso por longo período?”. O trabalho possibilitou o entendimento de como o SL/CA pode servir a redes sociais e das aprendizagens que ele pode propiciar-lhes, mostrando que a gratuidade é apenas um de suas características. O SL/CA possui uma série de aspectos que podem constituir elementos estruturantes da rede, seja no que diz respeito aos modelos de produção de software propriamente, seja no que tange ao gerenciamento de equipes de projetos com grande complexidade técnica em comunidades geograficamente dispersas e sem controle hierárquico e, enfim, no que tange aos aspectos de produção e distribuição de conhecimentos como bens públicos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Um novo mercado se desenvolveu no Brasil após a privatização das empresas de telecomunicações. Esse mercado é o de provimento de serviços de operação e manutenção das redes de telecomunicações para as operadoras. Esses serviços significam reparar as redes quando qualquer problema é detectado ou reclamado pelos assinantes ou, ainda, tomar ações no sentido de melhorar o desempenho do sistema ou de ativar novas funcionalidades. A manutenção de um corpo técnico capacitado para desempenhar essas funções dificulta-se proporcionalmente ao aumento da complexidade dos sistemas, o que tem ocorrido intensamente na última década com o aparecimento de novas tecnologias para comunicação de dados ou facilidades para voz, e leva ao favorecimento da terceirização desses serviços. Por outro lado, as empresas fornecedoras de equipamentos de telecomunicações e outras envolvidas nesse mercado, se deparam com uma grande queda de demanda devido à antecipação de metas imposta pela Anatel e pelo fim da "bolha da internet" que as conduziram à procura de novos nichos de mercados e muitas investiram para obter esses contratos de operação e manutenção, que são duradouros. Dessa forma a competição ficou bem acirrada e leva os provedores desses serviços a necessidade de otimização de suas técnicas de posicionamento no mercado. O que esse trabalho apresenta é um método de solucionar o problema de definir qual a melhor forma de se posicionar nesse mercado. Ou seja, de como poder competir de forma mais concisa e canalizar os esforços onde eles produzirão melhores resultados. Isso foi feito através da apresentação dos conceitos do marketing de valor e da definição dos conceitos relacionados ao pacote de valor percebido, representado pelos benefícios percebidos menos os custos percebidos. É importante ressaltar que os custos e benefícios aqui tratados são extensivos. Além das qualidades intrínsecas dos produtos ou do preço cobrado, são considerados para o pacote de valor todos os demais benefícios e custos envolvidos, como atributos de qualidade extrínsecos (Ex. Gama de serviços co-relacionados), riscos diversos (Ex. Riscos de desempenho insatisfatório na execução dos serviços) e todos os fatores monetários (Além do valor efetivamente pago, são analisados o sentimento sobre esses valores). O referencial teórico sobre os constructos de valor, foi utilizado para a confecção de um estudo de caso visando definir indícios sobre quais são os principais custos e benefícios nesse mercado e de como eles são percebidos. Para esse estudo de caso, foram consideradas as principais operadoras do mercado de telecomunicações brasileiro. Esse trabalho visou o estudo, de forma exploratória, no contexto brasileiro e sob a ótica do cliente, do valor atribuído pelas operadoras de telecomunicações aos diversos quesitos oferecidos pelas empresas que prestam esses serviços de manutenção e operação. Foram investigados quais as principais benefícios e custos que devem ser considerados para que essas empresas ofereçam o maior valor possível a seus clientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A maioria dos gastrópodes apresenta um sistema nervoso central razoavelmente simples, com um número de neurônios que varia entre 50.000 a 200.000. O comportamento das espécies desse grupo apresenta complexidade intermediaria, sendo mais simples do que o de vertebrados e artrópodes, contudo mais complexo e elaborado do que os invertebrados tais como equinodermas e anelídeos. Essas características comportamentais associadas a um sistema nervoso que apresenta neurônios de grande tamanho e de fácil identificação, tornam os componentes desse grupo muito atraentes para a resolução de problemas relacionadas às neurociências. O pulmonado, terrestre da espécie Megalobulimus abbreviatus se enquadra nessas características e tem sido usado como modelo para estudos neurobiológicos. O objetivo desse trabalho foi o de estudar as interações entre o sistema nervoso central e o sistema circulatório dessa espécie. Com o propósito de estabelecer quais são as relações funcionais e anatômicas entre os dois sistemas foram feitos estudos anatômicos, histoquímicos e ultra-estruturais com um traçador eletron-denso. Para o estudo dos componentes vasculares responsáveis pelo aporte sangüíneo do sistema nervoso central foi injetada, na árvore vascular, um mistura de carmim-gelatina e, para identificação dos endotélios, foi usada a técnica histoquímica para a detecção da atividade fosfatase alcalina. O estudo da ultra-estrutura foi realizado por meio de técnica para microscopia eletrônica de transmissão e a permeabilidade foi, testada utilizando lantânio como traçador elétron-denso ou solução de azul tripán. O sistema nervoso central do caracol é irrigado pela aorta anterior, da qual se originam uma série de finas artérias que irrigam os gânglios constituintes do complexo ganglionar subesfogiano. A extremidade distal da aorta anterior origina artérias que irrigam o bulbo bucal, a porção anterior do pé, os gânglios cerebrais, a glândula corpo dorsal e a porção anterior do sistema reprodutor. Não há vasos no tecido nervoso, esses restringem-se à bainha de tecido conjuntivo perigânglionar, onde se arranjam formando alças vasculares que se alojam em interdigitações e imbricações existentes na região limítrofe entre o tecido nervoso e a bainha que envolve os gânglios. Esse arranjo permite um aumento da superfície de contato, reduzindo a distância entre as porções mais profundas dos gânglios e os vasos, otimizando assim, a área de troca. O azul tripán injetado no pé alcançou a bainha que envolve os gânglios nervosos, contudo não penetrou no tecido nervoso. O endotélio vascular, a lâmina basal de espessura variável que envolve o tecido nervoso, e os prolongamentos das células gliais constituem a zona de interface entre a hemolinfa e os neurônios. O lantânio injetado no pé alcançou o tecido conjuntivo da cápsula perineural, entretanto não penetrou no tecido nervoso parando, sua difusão, ao nível da lâmina basal. Nos gânglios preparados por imersão em solução com lantânio coloidal o traçador foi encontrado entre os processos gliais, junto ao lado neural da lamina basal. Esses achados, associados aos resultados obtidos com as injeções de azul tripan, indicam que lâmina basal presente entre a cápsula perineural e o tecido nervoso, limita o tráfego das substâncias em direção ao sistema nervoso central deste caracol.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo apresenta um sistema real de produção, numa fábrica de máquinas agrícolas localizada no Paraná, cuja produção é regida pela sazonalidade.É feita a análise do processo produtivo atual da peça mais complexa produzida na empresa, processo que hoje tem sua produção empurrada. Através de simulação computacional, é estudado o desempenho do sistema como ele é atualmente, e propostas alternativas com a produção sendo gerida através de kanban ou de CONWIP. São utilizados como medidas de desempenho a quantidade total produzida, inventário em processo e tempo de ciclo. Com a equalização do nível de serviços dos modelos, através do ajuste das quantidades de cartões kanban e CONWIP, torna-se possível uma comparação mais adequada dos sistemas de gestão, e escolha do que melhor se adapta à situação estudada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O gerenciamento de redes exige dos administradores a disponibilidade de uma grande quantidade de informações sobre os seus equipamentos, as tecnologias envolvidas e os problemas associados a elas. Nesse cenário, administradores de redes devem, cada vez mais, aprofundar o seu conhecimento através de constante treinamento, até que estejam aptos a administrar uma rede de maneira mais eficiente e confiável. Alguns estudos têm sido feitos buscando integrar tecnologias de Inteligência Artificial na área de gerenciamento de redes. Abordagens utilizando sistemas multiagentes, agentes de interface e sistemas especialistas já foram utilizadas com o objetivo de facilitar a tarefa de gerenciamento de rede aos olhos do usuário. Os chatterbots representam um grande potencial para a tarefa de treinamento e gerenciamento de redes já que utilizam linguagem natural e são capazes de ser facilmente integrados em ambientes mais complexos. O principal objetivo deste trabalho é investigar o uso de chatterbots como uma ferramenta de gerenciamento utilizada por administradores menos treinados. O trabalho envolveu a adaptação do chatterbot ALICE para permitir o treinamento e a gerência de redes através da inclusão de módulos que permitem a monitoração de equipamentos de uma rede (através do protocolo SNMP) e módulos que permitam consultar e armazenar histórico de informações da mesma. Desta forma, a grande contribuição da arquitetura proposta é a de prover uma comunicação mais efetiva entre o administrador menos experiente e a rede, através do chatterbot assistente, que recebe consultas em linguagem natural, interpreta os dados coletados e expõe os conceitos envolvidos no processo de gerenciamento.