998 resultados para Troca Electrónica de Dados
Resumo:
Este trabalho tem por objetivo mostrar a adaptação das estratégias de uma empresa fornecedora de equipamentos de transmissão de dados, a PARKS S/A COMUNICAÇÕES DIGITAIS, frente às mudanças do mercado de telecomunicações no Brasil Através de uma análise de caso, evidenciaram-se as mudanças ocorridas no mercado de telecomunicações, a percepção desta empresa para tais mudanças e a orientação estratégica adotada para os seus próprios setores, a saber, o comercial, o industrial, o financeiro, o de recursos humanos e qualidade e o de engenharia. O estudo das mudanças ocorridas neste mercado abrangeu dois períodos, quais sejam, o anterior à privatização e os anos de 1997 até 2000, ressaltando-se, porém, que a análise se centrou neste último, o qual foi analisado mais detalhadamente. Uma vez identificadas as principais mudanças ocorridas na empresa escolhida para o estudo de caso - PARKS S/A Comunicações -, através de observação e da vivência do autor, bem como de contribuições relatadas por colegas da empresa, igualmente participantes do processo, este trabalho analisa estas mudanças uma a uma, mostrando o reflexo das mesmas na estrutura da empresa, procurando explicar como se deu o fenômeno e, assim, contribuindo para a compreensão de processos análogos que venham a ocorrer em um futuro próximo.
Resumo:
Atualmente, o enorme volume de informações armazenadas em bancos de dados de organizações ultrapassa a capacidade dos tradicionais métodos de análise dos dados baseados em consultas, pois eles se tornaram insuficientes para analisar o conteúdo quanto a algum conhecimento implícito e importante na grande massa de dados. A partir disto, a mineração de dados tem-se transformado em um tópico importante de pesquisa, porque provê um conjunto de técnicas e ferramentas capazes de inteligente e automaticamente assistir o ser humano na análise de uma enorme quantidade de dados à procura de conhecimento relevante e que está encoberto pelos demais dados. O presente trabalho se propõe a estudar e a utilizar a mineração de dados considerando os aspectos temporais. Através de um experimento realizado sobre os dados da Secretaria da Saúde do Estado do Rio Grande do Sul, com a aplicação de uma metodologia para a mineração de dados temporais, foi possível identificar padrões seqüenciais nos dados. Este experimento procurou descobrir padrões seqüenciais de comportamento em internações médicas, objetivando obter modelos de conhecimento dos dados temporais e representá-los na forma de regras temporais. A descoberta destes padrões seqüenciais permitiu comprovar tradicionais comportamentos dos tratamentos médicos efetuados, detectar situações anômalas, bem como, acompanhar a evolução das doenças existentes.
Resumo:
Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.
Resumo:
A observação de uma nova classe de eventos no espalhamento profundamente inelástico (D18) elétron-próton tem gerado grande interesse teórico e experimental. Estes eventos apresentam grandes intervalos na variável pseudo-rapidez ("7)sem deteção de partículas e são interpretados como oriundos de processos com caráter difrativo. A difração é descrita segundo uma base teórica fundamentada na Teoria de Regge, a qual já era utilizada na descrição das interações difrativas nas colisões hadrônicas. A Cromodinâmica Quântica (QCD) descreve com boa concordância todas as características usuais do D18, entretanto, frente a esses fenômenos novos elementos estão sendo incorporados na teoria. A questão principal é investigar se os processos difrativos são dominados pela troca da trajetória de Regge dominante, o Pomeron, ou por interações perturbativas descritas pela QCD. OS dados existentes não permitem distingüir qual a dominância e possivelmente há uma mistura de efeitos perturbativos QCD e não-perturbativos (Regge). Neste trabalho contrapomos o modelo de Regge e o Modelo Partônico para a difração. O observável físico utilizado nas análises é a função de estrutura difrativa Ff(xjp, {3,Q2). Apontamos as características e predições do Modelo Partônico para este observável. Encontramos que o modelo descreve os dados, entretanto há problemas em regiões específicas do espectro das variáveis cinemáticas. Recentes medidas da função de estrutura apresentam uma quebra de sua fatorização. No sentido de explicar esta nova característica introduzimos uma troca extra de reggeon, de caráter não-perturbativo, como uma extensão do Modelo Partônico. Os resultados mostram que a troca de reggeon é importante para {3< 0.4 e descreve bem a quebra de fatorização. Há melhoria na dependência para pequeno {3,entretanto a troca de reggeon é pouco sensível à variação do momento transferido Q2.
Resumo:
A presente Dissertação propõe uma biblioteca de comunicação de alto desempenho, baseada em troca de mensagens, especificamente projetada para explorar eficientemente as potencialidades da tecnologia SCI (Scalable Coherent Interface). No âmago da referida biblioteca, a qual se denominou DECK/SCI, acham-se três protocolos de comunicação distintos: um protocolo de baixa latência e mínimo overhead, especializado na troca de mensagens pequenas; um protocolo de propósito geral; e um protocolo de comunicação que emprega uma técnica de zero-copy, também idealizada neste Trabalho, no intuito de elevar a máxima largura de banda alcançável durante a transmissão de mensagens grandes. As pesquisas desenvolvidas no decurso da Dissertação que se lhe apresenta têm por mister proporcionar um ambiente para o desenvolvimento de aplicações paralelas, que demandam alto desempenho computacional, em clusters que se utilizam da tecnologia SCI como rede de comunicação. A grande motivação para os esforços envidados reside na consolidação dos clusters como arquiteturas, a um só tempo, tecnologicamente comparáveis às máquinas paralelas dedicadas, e economicamente viáveis. A interface de programação exportada pelo DECK/SCI aos usuários abarca o mesmo conjunto de primitivas da biblioteca DECK (Distributed Execution Communication Kernel), concebida originalmente com vistas à consecução de alto desempenho sobre a tecnologia Myrinet. Os resultados auferidos com o uso do DECK/SCI revelam a eficiência dos mecanismos projetados, e a utilização profícua das características de alto desempenho intrínsecas da rede SCI, haja visto que se obteve uma performance muito próxima dos limites tecnológicos impostos pela arquitetura subjacente. Outrossim, a execução de uma clássica aplicação paralela, para fins de validação, testemunha que as primitivas e abstrações fornecidas pelo DECK/SCI mantêm estritamente a mesma semântica da interface de programação do original DECK.
Resumo:
Faz-se um estudo da construção de uma bomba de calor residencial de baixo custo utilizando um condicionador de ar do tipo janela. Com tal equipamento operando fora das condições de projeto é preciso fazer uma avaliação das novas condições de operação, onde os evaporadores passam a ser objetivo de estudo do presente trabalho. A análise foi conduzida de duas formas. Uma tomada de dados experimental, feita em duas épocas distintas do ano, nas condições mais severas de consumo, no inverno, e nas condições mais severas de temperatura, no verão. A outra, uma análise teórica, gerando dados que podem ser comparados com a literatura. Inicialmente, é feita uma avaliação do coeficiente de performance visando a competitividade do equipamento no que tange o custo operacional. Como objetivo principal é avaliada a troca de calor nos evaporadores e os parâmetros que a influenciam, bem como o comportamento do fluido refrigerante na entra e saída. Foi preciso desenvolver uma metodologia para trocadores aletados que apresentam mudança de fase já que esta não é vista com facilidade na literatura. Faz-se uso do método NUT e- , que é adaptado de forma a ser função somente dos dados psicrométricos do ar. Para a efetividade média externa e o coeficiente de convecção externo é utilizada a metodologia desenvolvida por Schmidt em 1949 Como resultados, observou-se que o coeficiente de performance fica na faixa dos equipamentos comercias (2,6 na média anual) e o custo operacional é competitivo com o uso do gás liquefeito de petróleo, em aquecedores de passagem. A efetividade do trocador e o coeficiente de convecção externo apresentam um valor baixo, atribuído a grande área de troca de calor externa. O coeficiente de contato, apresenta um valor alto se comparado ao coeficiente de convecção externo. Quanto ao fluido refrigerante, este apresenta condições normais nas saídas dos evaporadores e título baixo na entrada de um dos evaporadores. Também é observado que um dos evaporadores apresenta baixo uso efetivo, sendo o problema atribuído a baixa vazão de refrigerante.
Resumo:
O objetivo dedste trabalho é investigar o projeto de banco de dados aplicado a Sistemas de Informações Geográficas (SIG), mais especificamente, do mapeamento de esquemas conceituais, orientado a objetos, para esquemas lógicos implementados por softwares de SIG comerciais. A transformação dos esquemas conceituais para os lógicos é realizado através da idedntificação de um conjunto de regras genéricas de mapeamento de qualquer esquema concecitual de banco de dados geográficos, baseados em um framework conceitual, para os esquemas lógicos proprietários dos diversos SIG existentes. A concretização desta tarefa de transformação é possível mediante a proposta de um ambiente de suporte. Esse ambiente fornece uma estrutura específica, constituída por uma linguagem formal, definida pelo padrão SAIF (Saptial Archive and Interchange Format), pela ferramenta FME (feature Manipulation Engine) e pela ferramenta CASE Rational Rose v.2000e. O conjunto de regras genéricas elaborado neste trabalho, é composto por dois subconjuntos. O primeiro define regras de correspondência, determinando uma relação entre os conceitos da realidade percebidos pelo Framework conceitual e a linguagem formal apresentada pelo padrão SAIF. O segundo subconjunto define regras de transformação, onde busca-se mapear os conceitos do paradigma da orientação a objetos par aos conceitos relacionais utilizazdos pela maioria dos softwares de SIG, disponíveis no mercado. Com a finalidade de validar a aplicabilidadee deste conjunto de regras de mapeamento e do ambiente de suporte proposto, este trabalho inclui também a implementação de um protótipo, o qual executa a automatização da trasnformação dos esquemas conceituais para os esquemas lógicos de banco de dados geográfico.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
Entre os fatores que afetam a interação precoce destaca-se a prematuridade do bebê, que traz dificuldades específicas para a interação mãe-bebê pelas particularidades inerentes a condição do recém-nascido pré-termo. A mãe tende a se sentir desemparada frente a um bebê frágil que precisa permanecer dentro de uma incubadora, necessitando de cuidados especiais. O presente estudo teve por objetivo investigar os efeitos de dois tipos de intervenção, tanto na qualidade de interação mãe-bebê, como para evolução fisiológica do bebê. Participaram do estudo 12 díades mãe-bebê pré-termo de baixo peso, todos clinicamente estáveis. As díades foram disignadas a um de dois grupos: Grupo 1, submetido a intervenção envolvendo estimulação tátil realizada pela mãe; ou Grupo 2, que foi submetido a intervenção que enfatizou a fala afetiva da mãe com o bebê. Um grupo controle de 12 díades emparelhadas por sexo e peso do pré-termo foram também recrutados, mas não foram submetidos a intervenções. As intervenções foram realizadas durante 15 minutos por dia, estendendo-se por 2 semanas, num total de quinze sessões. A segunda, oitava e última sessões foram filmadas. As mães foram entrevistadas antes, durante e após o período de intervenção, com o objetivo de examinar suas impressões e sentimentos frente a seu bebê pré-termo. Dados diários sobre a evolução fisiológica dos bebês foram também obtidos. Análise de conteúdo das entrevistas mostrou um grande desamparo e culpa destas mães que não puderam levar suas gestações a termo. Além disso, elas expressaram dificuldades em enfrentar o ambiente neonatal, medo de tocar/machucar e de perder seu bebê.Uma avaliação qualitativa das intervenções realizadas mostrou que um dos efeitos imediatos da estimulação tátil foi um aumento na atividade do bebê pré-termo. Contudo, para alguns bebês a estimulação tátil parecia estar fortemente associada a sua desorganização, pois eles mostravam-se agitados. Além disto, a estimulação tátil era por vezes realizada de forma mecânica, sem que a mãe ficasse face a face com o bebê, levando a intereções assincrônicas. Apesar disto, a estimulação tátil pode ter um efeito positivo para o bebê se a mãe for sensível e estiver atenta ao seu bebê, observando qual o toque que mais o satisfaz e o que lhe irrita. Já a avaliação qualitativa da intervenção fala afetiva mostrou que ela pareceu facilitar a troca visual, pois as mães tendiam a se posicionar face a face com o bebê. Assim, durante a interação face a face, as mães ao perceberem as respostas dos seus bebês, mostraram-se mais motivadas a continuarem falando com ele. Os dados mostram, ainda, que os bebês responderam tranqüilamente a esta intervenção, não sendo necessário um período de adaptação.Contudo, a intervenção fala afetiva pode apresentar problemas e levar um tempo para ser efetiva, caso a mãe não seja criativa ou mesmo não goste muito de falar. O efeito positivo das intervenções apontado na análise qualitativa dos dados do presente estudo não foi endossado pelas análises quantitativas sobre a evolução fisiológica do bebê. Independente do tipo de intervenção realizada com os bebês, não houve diferenças significativas na sua evolução fisiológica quando comparados com os do grupo controle. Embora os resultados tenham mostrado algumas tendências mostrando o efeito positivo das intervenções, o reduzido número de casos do presente estudo pode explicar pelo menos em parte os efeitos estatísticos reduzidos que foram encontrados. Neste sentido, é muito importante que novos estudos sejam realizados aumentando o número de díades mãe-bebê pré-termo, além de considerar o próprio desejo da mãe em realizar uma ou outra intervenção.
Resumo:
A informática vem adquirindo papéis cada vez mais importantes na vida cotidiana. Um dos papéis mais significativos, hoje, é o suporte a comunicações; atualmente, é muito difícil pensar em comunicações – mesmo interpessoais – sem fazer associação às áreas de informática e redes. Dentre as aplicações que utilizam informática e redes como suporte, a tecnologia de videoconferência tem recebido papel de destaque. Os avanços na tecnologia de redes e conectividade, aliados à padronização e à crescente oferta de produtos de videoconferência, têm aumentado a aplicabilidade e a popularidade destes produtos, sobretudo utilizados sobre arquitetura de redes TCP/IP. Trata-se de uma tecnologia atraente em termos de resultado, por agregar, além do áudio – recurso comum há muito tempo como suporte à comunicação – os recursos de vídeo e aplicações integradas (como quadro-branco compartilhado, Chat, troca de arquivos e outros). Contudo, essas aplicações são bastante exigentes, tanto em termos de banda quanto de qualidade de serviço (QoS) da rede. O primeiro item se justifica pelo volume de dados gerados pelas aplicações de videoconferência; o segundo, pela significativa influência que os problemas de qualidade da infraestrutura de rede (como elevada latência, jitter e descartes) podem exercer sobre tais aplicações. A busca para as soluções destes problemas não é tarefa simples, pois muitas vezes envolve investimentos que desencorajam a adoção da tecnologia de videoconferência – principalmente para uso pessoal ou por empresas pequenas. Este trabalho propõe uma solução aos problemas mencionados, visando proporcionar uma melhor aceitação e maior disseminação da tecnologia de videoconferência, valendo-se de recursos com pouca demanda de investimento. A estratégia abordada é a adaptação de tráfego, com um enfoque diferenciado: o de levar em conta, para cada aplicação, o comportamento que o processo de adaptação apresentasse. A partir dessa orientação, é proposto um modelo de adaptação de tráfego orientado ao perfil da aplicação, voltado ao interesse do usuário, e que disponibilize uma forma ao mesmo tempo simples e eficiente para que o usuário realize a adequação do mecanismo de adaptação do sistema às suas necessidades e expectativas. A partir desta proposta, foi implementado um protótipo de aplicação, com o objetivo de verificar a funcionalidade do modelo em termos práticos. As observações dos resultados dos testes, bem como as conclusões geradas, serviram como validação da proposta.
Resumo:
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
Na última década, o uso de sistemas microventilados (sistema VMA) em biotérios possibilitou alojar animais com melhor qualidade sanitária devido ao maior controle ambiental fornecido por esses sistemas. Contudo, ainda é necessário uma melhor avaliação desses sistemas, principalmente no que tange às respostas dos animais. Dessa forma, o objetivo deste trabalho foi avaliar a integridade do epitélio do trato respiratório superior (septo nasal e traquéia) de ratos mantidos em sistema VMA. Cem ratos, da linhagem Wistar-Hannover, heterogênicos, machos, de padrão sanitário convencional, foram mantidos durante 6 meses em dois distintos sistemas de ventilação: ventilação para conforto (grupo VGD, controle) e sistema VMA com intervalos de troca de cama variando de 3, 5, 7 e 9 dias (grupos IT3, IT5, IT7 e IT9, respectivamente). Após a eutanásia dos animais, fragmentos de septo nasal e traquéia foram coletados, processados com rotina de técnica histológica e corados com combinação de ácido periódico de Shiff e azul alciano (PAS-AB) e hematoxilina-eosina (HE). Os parâmetros morfométricos avaliados em septo nasal foram: 1) área de epitélio por unidade de superfície de membrana basal (EP/MB), 2) área de cílios por unidade de superfície de membrana basal (CI/MB), 3) número de núcleos por unidade de superfície de membrana basal (NN/MB), 4) área de muco ácido por unidade de superfície de membrana basal (MAc/MB), 5) área de muco ácido por área de epitélio (MAc/EP) e 6) número de núcleos por área de epitélio (NN/EP). Para NN/MB, o grupo VGD apresentou diferença estatística com os grupos IT3, IT5 e IT9. Para NN/EP, o grupo VGD teve diferença estatística com os todos grupos mantidos em VMA (IT3, IT5, IT7 e IT9). Em AE/MB observou-se diferença significativa do grupo VGD com os grupos IT7 e IT9. Para CI/MB notou-se diferença significativa entre os grupos IT3 e IT7. Embora não foi demonstrada diferença significativa entre os demais grupos, os dados sugerem que o grupo IT3 apresenta proporcionalmente maior área de cílios em relação aos demais grupos. Em MAc/MB e MAc/EP observou-se diferença significativa entre os grupos VGD e IT7. Na avaliação qualitativa da traquéia por escores, predominou a lesão inflamatória crônica, com intenso infiltrado de mononucleares (predominando neutrófilos). A presença e intensidade dessas lesões variaram de acordo com o sistema de ventilação sendo que somente no grupo VGD é que foram encontradas lesões severas (grau III). Com base nos resultados obtidos, os animais mantidos no sistema VMA, independente do intervalo de trocas de cama a que foram submetidos, apresentaram menor intensidade de lesões no septo nasal e na traquéia do que os animais mantidos em VGD. A maior integridade epitelial pode ser relacionado com a qualidade das condições ambientais fornecida aos animais alojados no sistema VMA, confirmando ser este o sistema mais adequado para a manutenção de ratos em experimentação.
Resumo:
Este trabalho propõe a definição de um Sistema de Valores de Troca para modelar as trocas sociais entre agentes em sociedade artificiais. Esse sistema é baseado na Teoria das Trocas de Valores de Jean Piaget e é composto por uma algebrá de valores de troca, que indica como esses valores devem ser representados e manipulados, por um mecanismo de raciocínio social baseado em vaores de troca e por estruturas capazes de armazenar e manipular tais valores. Nesse sistema, os valores de troca são vistos tanto como elementos motivadores das interações quanto como elementos reguladores responsáveis pelo equilíbrio e continuidade das trocas sociais. Acredita-se que o istema proposto é capaz de melhorar a modelagem das interações. É mostrado, também, como o sistema de valores proposto pode ser integrado com modelos de interação existentes na literatura de sistemas multiagente; Para isso, foram escolhidos dosi modelos práticos de organização dinâmica - o Redes de Contrato e o Modelo de Coalizões Baseadas em Dependências. Para demonstrar comomo o sistema de valores pode ser aplicado na modelagem e na simuulação de situações reais, é descrito um cenário para experimentação, no qual o sistema proposto é utilizado para modelar, de forma simplificada, o processo de lobby atrtavés de contribuições para campanhas políticas. Com este cenário pretende-se observar, além da dinâmica dos valores de troca, a capacidade do sistema em modelar caraterísticas mais subjetivas das interações (normalmente observadas nas relações humanas), e, ao tempo tempo, prover elementos reguladores, instrurmentos para a continuidade das interações e trocas sociais.