953 resultados para Condomínio comum
Resumo:
A infecção das vias biliares é uma doença freqüente com alta morbidade e mortalidade, que pode variar de 10 a 60% dependendo de sua gravidade. A causa mais comum desta infecção é a presença de cálculos na via biliar principal que propicia o surgimento de bacteriobilia. O profundo conhecimento das características microbiológicas da bile nos casos de coledocolitíase e infecção das vias biliares são fundamentais para o melhor diagnóstico desta infecção e escolha da antibioticoterapia a ser instituída. Assim, o objetivo deste estudo foi de caracterizar os principais aspectos microbiológicos da bile dos pacientes com e sem coledocolitíase e avaliar sua importância na escolha dos antimicrobianos para o tratamento da infecção das vias biliares. Foram analisados 33 pacientes que foram divididos em um grupo de 10 pacientes sem coledocolitíase (grupo controle) no momento da Colangiografia Endoscópica (CPER) e em outro grupo de 23 pacientes com coledocolitíase. A bile de todos os pacientes foi coletada no início do procedimento endoscópico, através de catater introduzido na via biliar. O exame de microscopia direta com coloração de Gram e as culturas da bile foram negativas nos 10 pacientes que não apresentaram coledocolitíase durante a CPER. Dos 23 pacientes com cálculos na via biliar principal, 19 (83%) apresentaram culturas positivas. Desses 19 pacientes com culturas de bile positivas, 18 (94,7%) apresentaram microorganismos detectáveis à microscopia direta com coloração de Gram. Apenas um paciente apresentou crescimento de germe anaeróbio (Bacteroides fragilis). O cultivo de 28 bactérias teve predominância de microorganismos Gram negativos (18 bactérias- 64,3%). Os germes isolados foram E. coli (9, 32,1%), Klebsiella pneumoniae (5, 17,9%), Enterococcus faecalis (5, 17,9%), Streptococcus alfa-haemoliticus (3, 10,7%), Streptococcus viridans (2, 7,1%), Enterobacter cloacae (2, 7,1%), Panteona aglomerans (1, 3,6%) e Pseudomonas aeruginosa (1, 3,6%). Todos os pacientes com microorganismos detectados pela microscopia direta com coloração de Gram tiveram crescimento bacteriano em suas culturas, por outro lado nenhum paciente com cultura negativa apresentou microoorganismos à microsopia direta ( p= 0,0005). Nesses casos, a microsopia direta apresentou uma especificidade de 100% e sensibilidade de 80%. A análise quantitativa das culturas da bile mostrou que das 19 culturas positivas, 12 (63,2%) tiveram pelo menos um germe com contagem superior a 105 ufc/ml. Todas as bactérias Gram positivas isoladas foram sensíveis à ampicilina, da mesma forma que todas as Gram negativas foram sensíveis aos aminoglicosídeos. Os achados deste estudo demonstram uma boa correlação entre a microscopia direta da bile com coloração de Gram e os achados bacteriológicos das culturas da bile coletada por colangiografia endoscópica retrógrada. O esquema terapêutico antimicrobiano tradicionalmente empregado em nosso hospital, que inclui a combinação de ampicilina e gentamicina, parece ser adequado, pois apresenta eficácia terapêutica contra os principais microorganismos responsáveis pela infecção das vias biliares.
Resumo:
(João Quevedo - Estudo do Processamento das Memórias de Curta e Longa Duração) - Este trabalho apresenta a compilação dos 4 principais experimentos carreados ao longo de 1999-2002: 3 deles envolvem o modelo animal e um quarto utilizase de voluntários humanos. Entretanto, o uso desses diferentes paradigmas não prejudica a unidade do conjunto. O Capítulo 1 apresenta sucintamente o marco teórico dos 4 trabalhos. Inicialmente são discutidos aspectos modulatórios da consolidação da memória. Após, alguns elementos da bioquímica da consolidação da memória são apresentados no intuito de permitir establecer um entendimento das vias da PKA e da MAPK e suas correlações com a via final comum – a síntese protéica. Adicionalmente, a dissociação STM e LTM é discutida a partir do referencial farmacológico. Uma última unidade apresenta conceitos primitivos do papel da amígdala na modulação da memória e das evidências da implicação das emoções, via amígdala, na modulação da memória em humanos. Os experimentos utilizando a esquiva inibitória como paradigma e o rato como sujeito ocupam os Capítulos 2, 3 e 4. No Capítulo 2 é apresentado um corpo de resultados que permite observar uma dissecção farmacológica da STM e LTM. Os dados demonstram um envolvimento de fenômenos dependentes de PKA em ambas STM e LTM, dependentes de MAPK apenas na STM, e dependentes de síntese protéica apenas na LTM. O Capítulo 3 apresenta um trabalho realizado em colaboração com o Prof. Steven P. R. Rose (Open University, UK), que envolve a determinação dos momentos sensíveis à inibição da síntese protéica na consolidação da LTM. Foram observados dois momentos: um inicial, junto ao treino, e um tardio apos 3h. Além disso, foi possível demonstrar que um treino prévio de baixa intensidade, mas não a pré-exposição ao aparato, pode impedir o estabelecimento de amnésia induzida pelo bloqueio da síntese protéica. O Capítulo 4 estende os achados com anisomicina observados no Capítulo 3, estudando também o inibidor da PKA, Rp-cAMPs, e o inibidor da MAPKK, PD 098059. Os dados obtidos confirmam também para essas cascatas a indução em um treino prévio de baixa intensidade de algum fenômeno celular de longa duração que torna o aprendizado de um segundo treino independente de PKA, MAPK ou síntese protéica. O estudo da dissociação da STM e LTM foi ampliado, agora no modelo humano, no experimento descrito no Capítulo 6. Nesse experimento, observamos uma clara influência do conteúdo emocional na LTM, mas a ausência desse efeito na STM. A discussão geral (Capítulo 7) busca integrar esses achados descritos nos capítulos anteriores dentro da nova perspectiva molecular da neurobiologia da memória. Além disso, abre discussão acerca de possíveis novas possibilidades de pesquisa.
Resumo:
A informática vem adquirindo papéis cada vez mais importantes na vida cotidiana. Um dos papéis mais significativos, hoje, é o suporte a comunicações; atualmente, é muito difícil pensar em comunicações – mesmo interpessoais – sem fazer associação às áreas de informática e redes. Dentre as aplicações que utilizam informática e redes como suporte, a tecnologia de videoconferência tem recebido papel de destaque. Os avanços na tecnologia de redes e conectividade, aliados à padronização e à crescente oferta de produtos de videoconferência, têm aumentado a aplicabilidade e a popularidade destes produtos, sobretudo utilizados sobre arquitetura de redes TCP/IP. Trata-se de uma tecnologia atraente em termos de resultado, por agregar, além do áudio – recurso comum há muito tempo como suporte à comunicação – os recursos de vídeo e aplicações integradas (como quadro-branco compartilhado, Chat, troca de arquivos e outros). Contudo, essas aplicações são bastante exigentes, tanto em termos de banda quanto de qualidade de serviço (QoS) da rede. O primeiro item se justifica pelo volume de dados gerados pelas aplicações de videoconferência; o segundo, pela significativa influência que os problemas de qualidade da infraestrutura de rede (como elevada latência, jitter e descartes) podem exercer sobre tais aplicações. A busca para as soluções destes problemas não é tarefa simples, pois muitas vezes envolve investimentos que desencorajam a adoção da tecnologia de videoconferência – principalmente para uso pessoal ou por empresas pequenas. Este trabalho propõe uma solução aos problemas mencionados, visando proporcionar uma melhor aceitação e maior disseminação da tecnologia de videoconferência, valendo-se de recursos com pouca demanda de investimento. A estratégia abordada é a adaptação de tráfego, com um enfoque diferenciado: o de levar em conta, para cada aplicação, o comportamento que o processo de adaptação apresentasse. A partir dessa orientação, é proposto um modelo de adaptação de tráfego orientado ao perfil da aplicação, voltado ao interesse do usuário, e que disponibilize uma forma ao mesmo tempo simples e eficiente para que o usuário realize a adequação do mecanismo de adaptação do sistema às suas necessidades e expectativas. A partir desta proposta, foi implementado um protótipo de aplicação, com o objetivo de verificar a funcionalidade do modelo em termos práticos. As observações dos resultados dos testes, bem como as conclusões geradas, serviram como validação da proposta.
Resumo:
Este estudo analisa a sustentabilidade dos agricultores associados à Cooperativa de Leite da Agricultura Familiar – CLAF, nos dois municípios onde ela iniciou em 1998: Renascença e Marmeleiro, no Sudoeste do Paraná. As CLAFs vem se destacando na região, como uma opção de viabilização socioeconômica das famílias, através de práticas que procuram orientar para um modelo de desenvolvimento sustentável das unidades de produção. Essas práticas refletem-se não só na reorientação do sistema produtivo, mas também no fortalecimento da participação e conscientização dos associados para buscar soluções coletivas para os problemas enfrentados pela Cooperativa e seus associados. O objetivo geral deste estudo é analisar o papel da dimensão institucional na construção da CLAF nos municípios de Renascença e Marmeleiro e sua relação com as dimensões sociocultural e ambiental das famílias associadas. Os objetivos específicos são: construir indicadores que possibilitem uma análise adequada das dimensões enfocadas; resgatar aspectos socioculturais, institucionais e ambientais relacionados à história da região de forma que permitam construir um quadro analítico-explicativo do atual cenário onde se situam os agricultores familiares estudados. A hipótese defendida aqui é que o enfoque nas dimensões selecionadas, em especial a institucional, contribuirá no sentido de confirmar que a história organizativa da região tende a se tornar um indicador importante para o sucesso de propostas como as da CLAF nos municípios do Sudoeste do Paraná. A metodologia utilizada discutiu a revisão bibliográfica de parte dos escritos sobre o tema do desenvolvimento sustentável e da história da região, elaborou indicadores para as dimensões selecionadas, se utilizou da análise comparativa por tipos pré-definidos, aplicação de questionários semi-estruturados e uso de análise estatística e elaboração de um quadro analítico das informações levantadas. A principal conclusão produzida por esta pesquisa é a de que há uma contribuição forte da dimensão institucional na construção de um modelo de desenvolvimento sustentável local. Isso se deve em grande parte ao histórico organizativo da região, como havia sido proposto pela hipótese inicial. Há tendências de que a reprodução da família e a atividade leiteira sejam mais sustentáveis para o tipo em transição. Essa tendência, no entanto, não aparece muito acentuada, provavelmente, devido à uma certa homogeneidade da amostra analisada, uma vez que todos são cooperados da CLAF e possuem um traço histórico comum.
Resumo:
Monitorar significa, de forma genérica, acompanhar e avaliar dados fornecidos por aparelhagem técnica. Quando se fala em monitoramento de uma rede, não se está fugindo desta idéia. Para monitorar a rede são utilizados mecanismos para coletar dados da mesma, sendo estes dados posteriormente avaliados. O monitoramento da rede é, sob o ponto de vista da administração da mesma, uma atividade indispensável. Através desta operação é possível obter conclusões sobre a “saúde” da rede. A busca e análise dos dados da rede podem ser feitas com vários enfoques, cada um buscando cercar uma situação específica, onde entre outros, destacam-se a segurança e a carga da rede. A proposta de fazer uso de algum recurso que permita monitorar a rede fica cada vez mais importante, à medida que as redes têm crescido em tamanho e importância para as organizações. Atualmente, é comum se falar em redes locais com centenas e até milhares de computadores conectados. Associada a esta realidade existe ainda a conexão com a Internet, que faz com que o número de máquinas em contato, suba para valores gigantescos. Os usuários de computador que estão conectados a uma rede, podem estar, fisicamente, muito longe dos olhos do administrador da mesma. Com isso, este sente-se obrigado a utilizar ferramentas que permita monitorar a rede, uma vez que não tem controle sobre os usuários. Sob o ponto de vista da segurança, a preocupação está em verificar a possível ocorrência de ataques ou detectar problemas nas configurações dos mecanismos de segurança implementados. Já quanto à carga da rede, o enfoque é monitorar os tipos de acessos e serviços utilizados, a fim de identificar atividades supérfluas que possam estar sobrecarregando a rede. O presente trabalho tem por objetivo estudar meios para construir uma ferramenta que permita verificar, de forma on-line, as conexões TCP/IP que estão ativas na rede local, seja uma conexão entre duas máquinas da rede local, ou com a Internet, possibilitando visualizar os serviços que estão sendo acessados e a quantidade de tráfego gerada pelos computadores. Ao final será construído um protótipo a fim de validar o estudo feito. O estudo parte da análise do padrão de rede Ethernet, que é ambiente a ser utilizado neste estudo. Na seqüência serão estudadas as características dos principais protocolos da família TCP/IP, que é o conjunto de protocolo utilizado pela grande maioria das redes, inclusive pela maior delas, que é a Internet. Em uma fase posterior, serão estudadas as formas de se fazer o monitoramento em uma rede Ethernet e as ferramentas de monitoramento existentes. Na seqüência, os detalhes do protótipo para monitorar conexões TCP/IP são apresentados bem como os resultados dos testes de validação do mesmo.
Resumo:
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
Resumo:
Este trabalho tem por objetivo promover uma análise dos ciclos econômicos de Brasil, Argentina e Estados Unidos, dando ênfase às mudanças de regimes ocorridas ao longo das flutuações experimentadas por esses países. Estudos recentes sobre ciclos têm argumentado em favor de ciclos internacionais de negócios. Nesse sentido, em especial, o trabalho visa testar a hipótese de um ciclo comum que afetaria ambos os países. A metodologia utilizada é a dos modelos MS-VAR – Markov switching vector autoregressions. Especificações univariadas são estimadas para o período de 1900 a 2000 e os resultados comparados aos fatos estilizados de cada país. Posteriormente um modelo multivariado é formulado para abrigar a hipótese de um ciclo conjunto, visto como mudanças comuns no processo estocástico do crescimento desses países. Os resultados sugerem que as evidências em favor desse ciclo comum são pouco robustas. As correlações contemporâneas estimadas apresentam valores bastante modestos. Em particular, existem significativas diferenças nos ciclos de Brasil, Argentina e Estados Unidos, cada um deles com características próprias e comportamentos singulares.
Resumo:
A codificação de vídeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação de vídeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação de vídeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).
Resumo:
O presente estudo identifica os efeitos dos novos acordos de livre comércio sobre os produtores de arroz no Brasil e nas demais regiões relevantes no mercado mundial. Inicialmente , são analisados os acordos comerciais de âmbito multilateral e regional, bem como as principais tendências. Na análise, verificam-se as distorções de mercado e os efeitos sobre os mercados agrícolas. Entre os produtos agrícolas comercializados no mercado internacional, o arroz tem a maior proteção por parte dos países e dos blocos regionais. Em função disto, o comércio de arroz está limitado a 5% da quantidade produzida no mundo, e os preços apresentam uma te ndência de queda ao longo das últimas décadas. A fim de compreender o funcionamento deste mercado, são definidas as principais regiões, analisados os desempenhos destas no mercado internacional e avaliadas as políticas domésticas e de comércio exterior adotadas pelos países. Neste sentido, a área de est udo foi definida com base na afinidade comercial e regional com os países do Mercado Comum do Sul (MERCOSUL) e no desempenho em termos de produção, consumo e comercialização de arroz. Entre as regiões de maio r relevância em termos de produção e consumo, destacamse a China, a Associação das Nações do Sudeste Asiático (ASEAN) e o Acordo Preferencial de Comércio do Sul da Ásia (SAPTA), enquanto por afinidade regional e comercial com os países do MERCOSUL salientam-se os países do Acordo de Livre Comércio da América do Norte (NAFTA), da Comunidade Andina (CAN) e da União Eur opéia (UE) Na análise do desempenho dos países e regiões no mercado internacional, observa-se que a performance de cada região é influenciada pelas políticas intervencionistas, de tal forma que grande parte dos países exportadores adota algum tipo de incentivo à exportação de arroz. Para analisar os efeitos dos novos acordos comerciais, como, por exemplo, da Área de Livre Comércio das Américas (ALCA), MERCOSUL-UE e MERCOSUL-CAN, desenvolve- se um modelo de alocação espacial e temporal utilizando-se de um Problema Complementar idade Mista (PCM). Este modelo permite considerar as diferentes barreiras tarifárias e os subsídios concedidos pelas regiões em estudo, incluindo diferentes cenários que contemplem reduções tarifárias e de subsídios. Desta forma, no primeiro cenário são incluídos os aspectos relacionados com os acordos multilaterais junto à OMC. Por outro lado, os cenários 2, (MERCOSUL-CAN), 3, (ALCA), e 4 (MERCOSUL-UE) simulam acordos de livre comércio de âmbito regional, considerando aspectos como, por exemplo, a eliminação (redução) das barreiras tarifárias e a eliminação (redução) de subsídios Por último, o quinto cenário é subdividido em dois grupos: o primeiro deles considera a formação da área de livre comércio entre a ASEAN e a China; o segundo trata dos efeitos sobre o me rcado internacional de arroz dada a entrada da China na OMC. Entre os cenários analisados destacam-se, como os mais favoráveis aos produtores brasileiros , os acordos de livre comércio com a CAN e os acordos de livre comércio com a UE. Em ambos os cenários existem perdas aos consumidores brasileiros e aos produtores dos países da CAN e da UE.
Resumo:
A integração de aplicações heterogêneas é uma tarefa constante entre empresas do mundo moderno. A grande quantidade de fornecedores de software, aliada à extensa variedade de técnicas e linguagens computacionais utilizadas, fazem desta integração uma tarefa trabalhosa e cara para as organizações. As alternativas existentes para a integração de sistemas de diferentes fornecedores podem variar, desde acesso compartilhado a uma base de dados comum, uso de replicadores de dados entre bases de dados distintas, troca de mensagens entre aplicações, ou o uso de programas exportadores/importadores, gerando arquivos em um formato previamente protocolado entre os desenvolvedores dos softwares envolvidos. Este trabalho visa propor uma alternativa para a integração de sistemas heterogêneos, fazendo uso da tecnologia XML para representar os dados que são trocados entre os aplicativos. Para tanto, sugere um framework a ser utilizado no planejamento da arquitetura dos softwares. O objetivo principal da adoção de um framework é a utilização de uma metodologia previamente desenvolvida e certificada, economizando tempo de análise para a solução de um problema. O framework proposto subtrai dos desenvolvedores a necessidade de alteração do código fonte dos seus programas cada vez que a integração com um novo fornecedor de software se faz necessária, ou que há alteração no formato dos dados trocados entre os aplicativos. Este efeito é conseguido através da utilização de XSLT para a conversão de formatos de documentos XML trocados pelos softwares. Tal conversão é realizada por um processador XSLT externo aos programas envolvidos. Para simplificar o processo, foi desenvolvido o protótipo de uma ferramenta para a geração de templates XSLT. Templates são elementos da especificação XSLT capazes de realizar a transformação entre estruturas representadas em XML. O gerador de templates XSLT é uma ferramenta gráfica capaz de converter mapeamentos realizados entre estruturas XML em templates XSLT, podendo aplicar as transformações geradas a documentos XML, com a finalidade de teste ou transformação.
Resumo:
Esta tese teve como objetivos investigar: (1) as mudanças relacionadas à idade no controle de força e torque isométrico em crianças de diferentes idades em três tarefas manipulativas distintas, e (2) as diferenças no controle de força e torque isométrico, assim como nas respostas neuromusculares, entre crianças com e sem DCD de idade relacionadas em três tarefas manipulativas distintas. Neste sentido, foi realizado um ensaio teórico sobre a criança com Desordem Coordenativa Desenvolvimental (DCD), além de dois estudos experimentais que têm em comum a análise da estrutura da resposta do sistema motor em relação à performance das crianças com e sem DCD, em três tarefas manipulativas distintas de controle de força e torque isométrico, contínuo e constante. No primeiro estudo, foram investigadas as mudanças desenvolvimentais no controle motor usando um delineamento transversal de pesquisa com crianças de 7, 9 e 11 anos de idade, as quais foram incentivadas a manter o controle de força e torque durante vinte segundos nas tarefas de pressão digital, preensão digital em pinça e torque em preensão digital. Os resultados demonstraram que a performance melhorou com o avanço da idade, devido à capacidade do sistema sensório-motor apresentar uma resposta mais irregular e com um perfil de freqüências mais distribuídas. No segundo estudo, o controle de força e torque entre crianças com e sem DCD, com nove anos de idade, foram investigadas. Os participantes realizaram as mesmas tarefas do estudo desenvolvimental e, além disso, respostas neuromusculares foram mapeadas Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados da análise das respostas neuromusculares sugerem o uso de estratégias distintas entre os grupos, todavia, tais achados não foram conclusivos.
Resumo:
O câncer renal corresponde a aproximadamente 3% dos tumores malignos do adulto, sendo a terceira malignidade urológica mais comum. Os tratamentos sistêmicos disponíveis para pacientes portadores de carcinoma renal avançado são, via de regra, pouco eficazes e sem um impacto definido na sobrevida. Portanto, torna-se imperioso que novos agentes e/ou estratégias terapêuticas para esta enfermidade sejam desenvolvidas. O derivado das epipodolofilotoxinas, etoposide, tem sido utilizado com sucesso no tratamento de vários tipos de tumores sólidos e hematológicos. Este agente exerce a sua ação antitumoral através da inibição da enzima nuclear topoisomerase II. Estudos recentes demonstraram que o efeito citotóxico in vitro deste agente é bem mais pronunciado quando as linhagens tumorais são expostas à droga por um tempo mais prolongado. Isto vem sendo confirmado em estudos clínicos, nos quais foi documentado um aumento significativo no percentual de respostas tumorais objetivas em pacientes com câncer avançado tratados com etoposide em doses repetidas diárias de forma continuada, comparativamente a pacientes que receberam pulsos de doses altas da droga a intervalos mais longos. Infelizmente, estudos iniciais com etoposide não revelaram uma atividade antitumoral significativa em pacientes com câncer renal avançado. Por esta razão, os estudos preliminares explorando o potencial terapêutico de seu análogo teniposide nesta doença também não receberam a devida atenção na literatura. Entretanto, este análogo possui potenciais vantagens terapêuticas em relação ao etoposide, uma vez que apresenta um tempo de retenção intracelular mais prolongado em linhagens de tumores sólidos in vitro. Estas observações nos estimularam a reconsiderar o estudo do potencial citotóxico do teniposide em modelos experimentais de câncer renal avançado. Nesta dissertação, foram estudados vários protocolos de administração de teniposide em linhagens de câncer renal humano, uma vez que esta neoplasia carece de drogas ativas disponíveis no armamentário terapêutico. Foram utilizadas as linhagens celulares RXF-393, A-498 e TK-10, as quais foram incubadas com teniposide em concentrações pré-determinadas e tempos de incubação variáveis. Além disto, foram feitos experimentos em que protocolos de administração de teniposide como agente único foram comparados a protocolos em que o mesmo foi combinado com agentes que bloqueiam a ação da glicoproteína P, responsável pelo efluxo ativo da droga do interior da célula tumoral. Além disso, foram também estudados protocolos incluindo a associação de teniposide com agentes que interferem com a síntese do DNA. Para os estudos de avaliação de citotoxicidade dos agentes quimioterápicos, os mesmos foram pré-incubados por 24 h na ausência ou presença do inibidor da DNA polimerase α afidicolina glicinada (0,2 µM) ou do inibidor da ribonucleotídeo redutase hidroxiuréia (200 µM) e após incubados por diferentes tempos de exposição com diluições seriadas de teniposide. Os efeitos citotóxicos foram avaliados através do método colorimétrico com sulforodamina B (SRB). Os protocolos de exposição prolongada das células ao teniposide mostraram um aumento significativo na sua citotoxicidade nas linhagens RXF-393, A-498 e TK-10, sugerindo que a citotoxicidade do teniposide é dependente de tempo de administração. Neste sentido, uma maior taxa de dano no DNA foi observada nas células expostas ao teniposide por tempos de administração mais prolongados. Curiosamente, os diferentes tempos de exposição ao teniposide não influenciaram de forma clara na formação de complexos DNA-topoisomerase II, nem nas medidas da atividade desta enzima. O uso concomitante de agentes moduladores da glicoproteína P como o verapamil, a ciclosporina A e o tamoxifeno não produziu potencialização do efeito antiproliferativo do teniposide. Por sua vez, os tratamentos com agentes que interferem na síntese de DNA, como a afidicolina glicinada ou a hidroxiuréia, potencializaram a citotoxicidade do teniposide em todas as linhagens estudadas, seguindo as características intrínsecas de cada linhagem. Em conclusão, os resultados apresentados nesta dissertação sugerem que o teniposide apresenta um maior efeito citotóxico em protocolos de administração prolongada em combinação com agentes inibidores da síntese de DNA. Frente a estes resultados iniciais, o teniposide será testado nos protocolos de administração acima mencionados em um painel contendo um maior número de linhagens tumorais in vitro. Uma vez confirmadas as observações acima descritas, serão iniciados estudos em modelos tumorais in vivo. Estes estudos servirão de base nas decisões quanto à reavaliação clínica do teniposide em ensaios de fase I em pacientes com neoplasias avançadas refratárias.
Resumo:
Partindo do pressuposto de que as concepções epistemológicas do professor norteiam a sua ação docente, a pesquisa apresentada nessa Dissertação foi realizada objetivando explicitar essas concepções e identificar e descrever as suas conseqüências na pedagogia empregada pelo professor de engenharia. O corpus dessa pesquisa constituiu-se de um grupo de professores, na quase totalidade engenheiros de formação, e de alunos da etapa profissionalizante do Curso de Engenharia Elétrica da Universidade Federal do Rio Grande do Sul – UFRGS, o que representa um recorte do universo de professores e alunos dos cursos de engenharia no Brasil. Em função da longa tradição da Instituição focalizada na formação de engenheiros, entende-se que este recorte reflete parte da realidade de cursos congêneres em instituições públicas. A pesquisa realizada é de caráter etnográfico, caracterizada pela imersão da pesquisadora no ambiente pesquisado. Os dados foram coletados a partir de falas de professores e de falas de alunos desses professores, cujos depoimentos foram registrados em fitas magnéticas de áudio. A complementação desses dados deu-se através da observação e do acompanhamento das aulas desses mesmos docentes. Na seqüência desse trabalho, foram analisadas essas manifestações e observações, feitas in loco, à luz de um referencial teórico fortemente embasado no construtivismo. Na Dissertação essas análises aparecem, em um primeiro momento, focadas nas falas individuais dos Professores. Em uma segunda etapa, é apresentada uma análise comparativa entre as diferentes falas individuais a partir do que foram identificados pontos em comum nas opiniões emitidas. O mesmo procedimento é adotado em relação às falas dos alunos. Como resultado dessas análises, ao final, é apresentado um diagnóstico da situação atual em termos de concepções epistemológicas e das estratégias pedagógicas utilizadas pelos professores-engenheiros. Ao final também, são feitas sugestões que visam a subsidiar a implantação de uma proposta pedagógica de cunho construtivista, em cursos de engenharia.
Resumo:
A modelagem, a correlação e a análise de dados geofísicos e geoquímicos, aplicados para avaliar/definir a distribuição e o controle de teores de minério num espaço 3D, não são procedimentos adotados para o caso de depósitos de metais básicos e Au. Essa tese de doutorado tem o objetivo de avaliar e definir uma metodologia de modelagem, correlação e análise de dados geofísicos e geoquímicos para controle de teores de metais básicos e Au. Tal metodologia foi aplicada no Prospecto Volta Grande (Lavras do Sul, RS). A região de Lavras do Sul (RS) possui uma série de ocorrências minerais do tipo veios de quartzo com metais básicos e Au, as quais estão relacionadas com o processo de alojamento do Complexo Intrusivo Lavras do Sul. Esse complexo é uma intrusão predominantemente granítica, zonada e multifásica, cujas rochas têm filiação com as séries shoshonítica a alcalina. As ocorrências de veios estão relacionadas a zonas de alteração hidrotermal controladas por fraturas predominantemente WNW-ESE. O Prospecto Volta Grande é constituído por uma série de tais veios alojados tanto no granito intrusivo, quanto nas rochas vulcânicas e vulcanoclásticas da Formação Hilário. A metodologia desenvolvida consiste: 1) da construção de uma base de dados comum para o georreferenciamento 3D dos dados; 2) processamento estatístico e geoestatístico das variáveis de interesse (dados geofísicos e geoquímicos); 3) modelagem 3D das variáveis de interesse para definir a distribuição espacial; e 4) análise da correlação entre as variáveis para definir o controle 3D dos teores de minério por meio de métodos indiretos. Essa metodologia, na medida em que haja a possibilidade de várias fontes de informação e a possibilidade de aplicar algorítmos de lógica matemática, poderá incorporar a integração de dados num espaço 3D A aplicação de tal metodologia no Prospecto Volta Grande (Lavras do Sul, RS) permitiu verificar que os dados geofísicos e geoquímicos se adaptam mais adequadamente a uma distribuição do tipo lognormal. Além disso, a comparação múltipla das médias de resistividade aparente permitiu distinguir um controle litológico sobre os dados geofísicos. Desse modo, foram definidos os procedimentos de análise variográfica e, então, os parâmetros para a modelagem 3D dos corpos condutores em cada área de pesquisa. A adequação do suporte amostral dos dados geofísicos e geoquímicos permitiu a correlação entre essas variáveis. A análise dos diagramas de correlação revelou superposição de pulsos de mineralização com distintas cargas metálicas. A utilização de métodos indiretos para controle de teores em depósitos sulfetados do tipo veios de quartzo com Au + Cu é, portanto, uma possibilidade concreta, garantida a adequada resolução espacial dos levantamentos geofísicos.
Resumo:
Esta dissertação versa sobre índices de avaliação de processo nas suas abordagens univariada e multivariada. Analisa-se a utilização da Análise de Componentes Principais (ACP) como ferramenta no desenvolvimento de índices capazes de avaliar processos multivariados. O trabalho apresenta uma revisão teórica sobre os índices univariados de aplicação mais comum na indústria (CP/PP , CPK/PPK , CPM/PPM e CPMK/PPMK), o índice multivariado MCpm e sobre os índices MCP , MCPK , MCPM e MCPMK , associados a ACP. Os índices de avaliação de processo são analisados quanto à sua adequação ao uso, através de um estudo de caso na indústria de componentes automotivos. Para tanto, examina-se o processo de fabricação de um componente do freio de veículos médios e pesados, denominado spider, em que doze variáveis de processo são controladas por meio de controle estatístico de processo. Através do estudo de caso, faz-se uma comparação entre os resultados dos índices univariados e multivariados; pressupõe-se que através da Análise de Componentes Principais poder-se-á concluir sobre a capacidade e o desempenho de processos multivariados. Por fim, a partir da análise univariada dos componentes principais, apresenta-se uma técnica complementar para quantificar a contribuição das variáveis controladas à variabilidade de processos multivariados.