997 resultados para polimorfismo de seqüência
Resumo:
Neste trabalho é resolvido o problema da minimização do volume de estruturas bidimensionais contínuas submetidas a restrições sobre a flexibilidade (trabalho das forças externas) e sobre as tensões, utilizando a técnica chamada otimização topológica, que visa encontrar a melhor distribuição de material dentro de um domínio de projeto pré-estabelecido. As equações de equilíbrio são resolvidas através do método dos elementos finitos, discretizando a geometria e aproximando o campo de deslocamentos. Dessa forma, essas equações diferenciais são transformadas em um sistema de equações lineares, obtendo como resposta os deslocamentos nodais de cada elemento. A distribuição de material é discretizada como uma densidade fictícia constante por elemento finito. Esta densidade define um material isotrópico poroso de uma seqüência pré-estabelecida (SIMP). A otimização é feita através da Programação Linear Seqüencial. Para tal, a função objetivo e as restrições são sucessivamente linearizadas por expansão em Série de Taylor. A análise de sensibilidade para a restrição de flexibilidade é resolvida utilizando o cálculo da sensibilidade analítico adaptado para elementos finitos de elasticidade plana. Quando as restrições consideradas são as tensões, o problema torna-se mais complexo. Diferente da flexibilidade, que é uma restrição global, cada elemento finito deve ter sua tensão controlada. A tensão de Von Mises é o critério de falha considerado, cuja sensibilidade foi calculada de acordo com a metodologia empregada por Duysinx e Bendsøe [Duysinx e Bendsøe, 1998] Problemas como a instabilidade de tabuleiro e dependência da malha sempre aparecem na otimização topológica de estruturas contínuas. A fim de minimizar seus efeitos, um filtro de vizinhança foi implementado, restringindo a variação da densidade entre elementos adjacentes. Restrições sobre as tensões causam um problema adicional, conhecido como singularidade das tensões, fazendo com que os algoritmos não convirjam para o mínimo global. Para contornar essa situação, é empregada uma técnica matemática de perturbação visando modificar o espaço onde se encontra a solução, de forma que o mínimo global possa ser encontrado. Esse método desenvolvido por Cheng e Guo [Cheng e Guo, 1997] é conhecido por relaxação-ε e foi implementado nesse trabalho.
Resumo:
A busca da solução ideal entre os fenômenos naturais para conforto na habitação de um modo geral e na hotelaria de lazer de forma especifica, constitui um desafio para profissionais e proprietários desse tipo de edificações. As variáveis e condicionantes da região de localização do prédio e o domínio no assunto, tem levado alguns profissionais da área a acreditar que podem alterar o espaço em que o homem vive modificando o comportamento do meio (Enarch, 1983). Estudos específicos na área de conforto ambiental mostram, que a utilização correta dos meios em uso na aplicação da energia disponível e que a correta implantação da obra no sitio podem reduzir consideravelmente o consumo energético, proporcionando o necessário conforto e bem estar ao usuário.O Estudo que aqui é apresentado se propôs de forma sucinta, a traçar um rápido panorama da historia da hotelaria de lazer, desde tempos antigos, com o inicio das primeiras jornadas romanas, até os dias de hoje, procurando identificar quais os critérios adotados para aproveitamento de iluminação e ventilação natural na arquitetura de hotéis de lazer Na seqüência situou-se a história da hotelaria de lazer no Brasil. No terceiro capitulo foram abordados, alguns exemplos significativos da arquitetura brasileira na década de 50, que influenciaram a primeira manifestação da arquitetura de hotel voltado ao bem estar, no Paraná. No quarto capitulo é apresentada a primeira e discreta participação do exemplo paranaense, com a adoção de alguns aspectos, no que se refere ao aproveitamento natural da iluminação e ventilação natural.O estudo de caso, finalmente buscou encontrar traços referenciais, do hotel tomado como objeto da pesquisa, procurando identificar, os critérios adotados quando presentes, para redução de consumo de energia e para conforto ambiental na hotelaria de lazer apresentada.
Resumo:
Atualmente, o desenho urbano tem sido realizado dentro de um âmbito restrito do conhecimento. Este não tem considerado aspectos de drenagem da água que trazem grandes transtornos e custos para a sociedade e o ambiente. O desenvolvimento urbano brasileiro tem produzido um aumento significativo na freqüência de inundações, na produção de sedimentos e na deterioração da qualidade da água. Tal situação é decorrente, na maioria dos casos, da ocupação intensiva do solo urbano. Assim, essa abordagem demonstra, inicialmente, uma visão sobre o desenho urbano e suas interfaces; particularmente as relacionadas com a geografia, o ambiente natural e o construído. Na seqüência, pretendendo atingir o enfoque interdisciplinar, aponta vínculos entre o desenho urbano e a hidrologia através de uma análise ambiental de bairros dos municípios de Porto Alegre e Lindolfo Collor, de modo a identificar relações com a utilização de uma variável - a superfície impermeável, procurando descrever o comportamento ambiental de bacias hidrográficas urbanizadas bem como mostrar a necessidade da reserva de área para armazenar água no início do crescimento urbano. Finalizando, apresenta os principais parâmetros ou características de desenho que deverão garantir a sustentabilidade urbana e hidrológica. Apesar de prematuro, pode-se afirmar que existem indícios para que a dissertação venha suprir algumas deficiências existentes no planejamento urbano-ambientalatualmente adotado.
Resumo:
Os solos de várzea são responsáveis por uma parcela significativa da economia do Rio Grande do Sul. As principais atividades de exploração desses solos são o cultivo do arroz irrigado por inundação e a pecuária. Tendo em vista o método de irrigação adotado, o cultivo do arroz é acompanhado de grandes consumos de água e energia. As más condições de drenagem, associadas à uma série de outros fatores, praticamente limitam a atividade agrícola à essa cultura, e fazem com que a pecuária seja quase uma imposição. Tendo esse quadro como referência foram definidos os objetivos desse trabalho, através dos quais buscaram-se algumas respostas que possam auxiliar na definição de um modelo de exploração mais adequado ao grande potencial que esses solos apresentam. Inicialmente o modelo agroidrológico SWAP foi adaptado às particularidades da irrigação por inundação e dos sistemas de drenagem que têm seus drenos implantados com subsoladores. Criou-se então uma nova versão, denominada SWAP_INU. Na seqüência o modelo foi validado a partir da comparação de seus resultados com observações feitas em áreas da Estação Experimental do Arroz do IRGA. Nessas áreas os perfis de solo têm como característica a presença de horizonte B superficial e impermeável. Uma série de simulações permitiram que fossem confrontadas as lâminas de irrigação e profundidades do lençol freático registradas nos experimentos e calculadas pelo modelo. No caso específico da irrigação, as lâminas observadas e calculadas também foram comparadas com as recomendadas pelo IRGA, quando pode-se constatar que o limite inferior do intervalo recomendado é compatível com as observações e cálculos feitos. Além disso, verificou-se que nesse tipo de perfil as características do horizonte A têm pouca importância sobre os resultados finais. Em outra série de simulações procurou-se relacionar a drenagem com a possibilidade de mecanização. Foram criados cenários com diferentes condições de drenagem superficial e subsuperficial, além da presença de drenos livres. Os resultados mostraram uma dependência muito grande entre os sistemas convencionais, e um desempenho bastante satisfatório da drenagem não convencional. Por fim, os resultados de um modelo simplificado, IRRIGA, foram confrontados com os do modelo SWAP_INU. A proximidade entre os valores calculados indicou um ótimo desempenho do modelo simplificado na estimativa da necessidade total de água para a irrigação por inundação.
Resumo:
Este trabalho discute a racionalidade econômica para o desenvolvimento de um sistema de metas sociais como forma de o governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O trabalho desenvolve algumas extensões do modelo de agente-principal incluindo abordagens estáticas com e sem informação imperfeita e abordagens dinâmicas com contratos perfeitos e imperfeitos. Os resultados dos modelos estáticos indicam que o uso de critérios usuais de focalização onde localidades mais pobres recebem mais recursos pode levar a incentivos adversos para a erradicação da pobreza. Nós também mostramos que transferências incondicionais do governo federal deslocam gastos sociais locais. O trabalho argumenta em favor do uso de contratos onde quanto maior for a melhora no indicador social escolhido, mais recursos o município receberia. A introdução de informação imperfeita neste modelo basicamente gera uma penalidade aos segmentos pobres de áreas onde os governos demonstram ser menos avessos a pobreza. O trabalho também aborda o problema de favoritismo político onde determinados grupos sociais têm maior, ou menor, atenção por parte de governos locais. O resultado é que as políticas sociais acabam privilegiando determinados setores em detrimento de outros. Com o estabelecimento de metas sociais é possível, se não eliminar o problema, ao menos criar incentivos corretos para que os gastos sociais sejam distribuídos de forma mais equânime. Também desenvolvemos modelos dinâmicos com diferentes possibilidades de renegociação ao longo do tempo. Demonstramos que a melhor forma de aumentar a eficiência alocativa dos fundos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências ex-post criadas por não se usar a informação nova revelada ao longo do processo. Finalmente, introduzimos a possibilidade do resultado social observado depender não só do investimento realizado, mas também da presença de choques. Nesse caso, tanto o governo quanto o município aumentam as suas metas de investimento na área social. Contratos lineares na presença de choques negativos fazem com que os municípios recebem menos recursos justamente em situações adversas. Para contornar esse problema, mostramos a importância da utilização de contratos com comparação de performance.
Resumo:
Nesta dissertação realizou-se um experimento de Monte Carlo para re- velar algumas características das distribuições em amostras finitas dos estimadores Backfitting (B) e de Integração Marginal(MI) para uma regressão aditiva bivariada. Está-se particularmente interessado em fornecer alguma evidência de como os diferentes métodos de seleção da janela hn, tais co- mo os métodos plug-in, impactam as propriedades em pequenas amostras dos estimadores. Está-se interessado, também, em fornecer evidência do comportamento de diferentes estimadores de hn relativamente a seqüência ótima de hn que minimiza uma função perda escolhida. O impacto de ignorar a dependência entre os regressores na estimação da janela é tam- bém investigado. Esta é uma prática comum e deve ter impacto sobre o desempenho dos estimadores. Além disso, não há nenhuma rotina atual- mente disponível nos pacotes estatísticos/econométricos para a estimação de regressões aditivas via os métodos de Backfitting e Integração Marginal. É um dos objetivos a criação de rotinas em Gauss para a implementação prática destes estimadores. Por fim, diferentemente do que ocorre atual- mente, quando a utilização dos estimadores-B e MI é feita de maneira completamente ad-hoc, há o objetivo de fornecer a usuários informação que permita uma escolha mais objetiva de qual estimador usar quando se está trabalhando com uma amostra finita.
Resumo:
Procuramos apresentar neste trabalho a importância e os efeitos dos mercados internos de capitais, e as conseqüências quando da sua aplicação. Para isso, aplicamos inicialmente um modelo básico de mercados internos de capitais, avaliando os pontos atingidos e algumas idéias não abrangidas por ele. Exemplificamos com uma situação de aplicação de recursos entre divisões de uma pequena empresa diversificada e seu fracasso devido à má alocação desses recursos. Na seqüência, identificamos modelos que, quando aplicados às situações em que os mercados internos de capitais não funcionaram, foram capazes de apontar o porquê, indicando possíveis interferências e impedimentos. Por fim, aplicamos um modelo que permite comprovar a ineficiência na transferência de recursos quando esses vão na direção das divisões com as piores oportunidades de investimento.
Resumo:
Esta dissertação apresenta como propósito de pesquisa compreender e explicar como a literatura infantil contribui para a construção do pensamento das crianças: como a criança assimila a história que lhe é lida ou contada? A reflexão acerca dos processos cognitivos e suas inter-relações com a literatura infantil tem por hipótese de que esta pode desencadear, através do seu conteúdo, as ações vividas pela criança, ou seja, a criança passa a relacionar suas experiências de vida com o que está no livro. Nesse sentido, a história do livro pode trazer uma contribuição importante para a Estruturação do Real. O trabalho fundamenta-se especialmente nas contribuições de Jean Piaget e utiliza o estudo de caso como estratégia de pesquisa. A investigação foi realizada com um grupo de seis crianças, cujas idades variavam entre 6 e 7 anos, que freqüentavam uma turma de 1º ano, do 1º Ciclo de uma escola pública da Rede Municipal de Ensino de Porto Alegre, ao longo do segundo semestre de 2003. O grupo foi observado em contextos que envolviam a literatura infantil dentro da escola. O procedimento de avaliação do processo cognitivo das crianças deu-se através de entrevistas clínicas – a primeira, realizada em setembro, e a segunda, em dezembro. O processo cognitivo dessas crianças é entendido aqui como sendo aquele que assinala a passagem dos raciocínios pré-conceptuais (transduções) para a atividade representativa de ordem operatória. O ato de escutar, recontar, comentar e discutir as histórias, presente tanto nas entrevistas clínicas como no trabalho escolar com a literatura infantil, privilegiou a narrativa (linguagem) das crianças, justamente por reconhecer a importância da mesma, tanto no que diz respeito ao começo como ao avanço da conceituação. Os resultados desta pesquisa apontam para a existência de um caminho solidário entre Letramento e Estruturação do Real, inclusive no que diz respeito à confirmação da hipótese inicial referente à relação estabelecida pela criança entre suas experiências de vida e as histórias guardadas nos livros infantis, tanto de tendência realista como fantasista. A qualidade das trocas simbólicas ocorridas entre as crianças e a professora durante as situações sistemáticas de interação com a literatura infantil produziu avanços significativos no quadro da representação cognitiva de todas as crianças, quando foram comparados os dados obtidos na segunda entrevista com aqueles da primeira. Além disso, a pesquisa confirma as contribuições de Piaget no que diz respeito ao pensamento intuitivo das crianças pesquisadas, as quais manifestaram raciocínios aparentemente operatórios, porém ligados a uma configuração perceptiva. Esses raciocínios indicam que para a criança compreender a ordem (seqüência da história) preestabelecida no objeto livro são necessárias ações ordenadas no plano da representação, bem como sua interação com o objeto livro e o adulto intérprete-leitor.
Resumo:
As maiores dificuldades encontradas no teste de software estão relacionadas à definição dos dados de teste e a decisão de quando encerrar os testes. Uma das formas encontradas para minimizar tais dificuldades está centrada na utilização de critérios de cobertura. O principal objetivo dos critérios de cobertura é tornar o processo de testes mais rápido e preciso, fornecendo informações que determinem o que testar em um software para garantir sua qualidade. A modelagem é um dos elementos de maior importância nas atividades relacionadas ao desenvolvimento de software. Os modelos são construídos principalmente para melhor se entender o sistema, descrever a estrutura e comportamento desejados, visualizar a arquitetura e documentar as decisões tomadas durante o seu desenvolvimento. Atualmente, o sistema de notação mais utilizado para a modelagem de sistemas baseados nos conceitos de orientação a objetos é a Linguagem de Modelagem Unificada – UML [LAR 99]. Nesta notação, um sistema é descrito por um conjunto de diagramas que apresentam diferentes aspectos do sistema. As informações disponibilizadas por estes diagramas propiciam, já nas fases iniciais do desenvolvimento da aplicação (análise e projeto), o planejamento dos casos de teste e a definição de critérios de cobertura. Observa-se que nestas fases a maioria das informações necessárias para o teste já estão disponíveis, como por exemplo, a definição das classes com seus atributos, métodos e relacionamentos, a representação da interação existente entre objetos para a realização de um cenário e a descrição dos possíveis estados e transições de um objeto em resposta a eventos externos e internos. Este trabalho propõe um conjunto de diretrizes e critérios de cobertura de teste, tendo como base as especificações diagramáticas UML. As diretrizes estabelecem um conjunto de instruções para que o teste seja feito e os critérios de cobertura identificam os pontos principais e serem considerados durante o teste. Na definição das diretrizes e dos critérios foram avaliadas as informações disponibilizadas pelos diagramas de classes, seqüência, colaboração e estados.
Resumo:
Introdução: Sabe-se que a cirurgia de revascularização miocárdica está associada com alteração dos mediadores inflamatórios e da função imunitária, com ativação precoce dos linfócitos que poderia ser responsável pela linfopenia e diminuição da atividade dos linfócitos no pós-operatório. A elevação enzimática está diminuída na cirurgia sem circulação extracorpórea mas este achado não está associado a melhor evolução clínica. Nesta tese, testamos a hipótese de que a cirurgia de revascularização miocárdica realizada sem circulação extracorpórea pode levar a uma ativação linfocitária de menor intensidade do que a cirurgia com circulação extracorpórea. Métodos: A resposta da ativação linfocitária foi estudada durante o período trans e pósoperatório em 28 pacientes randomizados para cirurgia de coronária sem circulação extracorpórea (n=13) ou cirurgia convencional com circulação extracorpórea (n=15), utilizando citometria de fluxo para determinar a expressão de CD25, CD26, CD69 e DR em linfócitos T (CD3+) e B (CD19+), em sangue periférico. No mesmo período foram realizadas dosagens de troponina I por quimioluminescência e realizado ecocardiograma uni-bidimensional antes e após a cirurgia. Resultados: Não houve diferença estatisticamente significativa para nenhum dos marcadores de ativação linfocitária quando comparados os grupos operados sem ou com circulação extracorpórea (ANOVA bicaudal para medidas repetidas, p>0,05). Considerando todos os pacientes estudados, houve uma elevação da expressão proporcional de CD25 e CD69 em linfócitos T (CD3+) e B (CD19+). Nos linfócitos T, o valor proporcional médio mais elevado (+ EP) de CD69 foi observado 6 horas após terem sido completadas as anastomoses (+75 + 476%) e CD25 teve uma elevação mais gradual, com o pico de seu valor médio (+48 + 24 %) ocorrendo 24 horas após a revascularização. Em linfócitos B, o pico do valor médio de CD69 (+104 + 269 %) ocorreu também após o fim das anastomoses. CD25 teve seu pico de valor médio (+150 + 773 %) 112 horas após a revascularização e seu último valor medido ainda estava elevado. A expressão de CD26 em linfócitos T teve um aparente declínio nos seus valores proporcionais médios (-42 + 32 %) 12 horas após o fim das anastomoses. Não houve diferença significativa na elevação enzimática entre os dois grupos (teste estatístico >0,05). No ecocardiograma, o grupo operado sem circulação extracorpórea apresentou diminuição do volume diastólico (p=0,001) de da fração de ejeção (P=0,012), enquanto no grupo com circulação extracorpórea, diminuíram os volumes diastólico (p=0,006) e sistólico (p=0,01). Conclusões: 1) Comparando a cirurgia de revascularização miocárdica com circulação extracorpórea, a cirurgia sem circulação extracorpórea não reduz a ativação dos linfócitos. 2) A cirurgia de revascularização miocárdica produz uma ativação precoce dos linfócitos, com aumento da expressão de CD69 e CD25 em linfócitos T (CD3+) e B (CD19+), em sangue periférico. A elevação precoce de CD69, e elevação mais tardia de CD25, pode indicar duas partes de uma seqüência de ativação linfocitária. 3) O comportamento das enzimas cardíacas e dos achados ecocardiográficos não sugere benefício da cirurgia sem circulação extracorpórea sobre o dano miocárdio.
Resumo:
O tema deste trabalho é a metodologia Seis Sigma. O objetivo principal é apresentar e desenvolver uma metodologia para aplicação do Seis Sigma e desenvolver estudo aplicado. Inicialmente, é realizada uma revisão bibliográfica, enfocando os temas qualidade, satisfação do cliente e Seis Sigma. Na seqüência, é apresentada uma proposta de modelo para a aplicação do Seis Sigma em processos industriais. O modelo proposto aborda a estrutura para aplicação do Seis Sigma, os treinamentos e as principais atividades e ferramentas do ciclo DMAIC (Define, Measure, Analyse, Improve e Control). O modelo proposto é aplicado através de uma série de projetos. Um desses projetos é descrito detalhadamente, ilustrando o modelo proposto. Os resultados apresentados na aplicação do Seis Sigma são amplamente positivos. Os resultados obtidos abrangem melhorias radicais de qualidade, produtividade e custos. As atividades e ferramentas que apresentaram melhores resultados são destacadas. Apesar do Seis Sigma estar associado à aplicação intensiva de estatística, verifica-se que, de um modo geral, o Seis Sigma pode ser aplicado de um modo mais simplificado.
Resumo:
A doença de Machado-Joseph (DMJ), ou ataxia espinocerebelar tipo 3 (SCA3), é uma desordem neurodegenerativa autossômica dominante, originalmente descrita em famílias de ancestralidade portuguesa-açoriana. Incordenação generalizada da marcha, dos membros e da fala podem estar presentes nos pacientes afetados por essa doença. O início das manifestações clínicas ocorre, em geral, entre os 30 e os 40 anos, apresentando uma progressão bastante lenta. O tempo médio de sobrevida depois do início da doença é de 14 a 17 anos. O gene associado à doença, denominado MJD1, foi identificado em 1994 e localiza-se no cromossomo 14. Este gene se caracteriza por apresentar uma repetição nucleotídica CAG na região 5` do exon 2. O número destas repetições é polimórfico na população, sendo que indivíduos normais apresentam de 12 a 37 repetições CAG, enquanto os afetados pela DMJ podem apresentar de 61 a 84 repetições. Um recente estudo mundial de haplótipos demonstrou a presença de dois diferentes haplótipos em famílias de origem açoriana, que são específicos à ilha de origem. Em famílias da porção continental de Portugal, os dois haplótipos foram encontrados. A maioria das famílias não portuguesas também compartilha o mesmo haplótipo encontrado em famílias originárias da ilha de Flores, mas três outros haplótipos foram encontrados nessas famílias. Até o momento, a hipótese mais forte declara que a difusão da mutação original está diretamente ligada à imigração portuguesa-açoriana No presente estudo, esta hipótese foi testada através da análise de disequilíbrio de ligação de três polimorfismos intragênicos (A669TG/C669TG, C987GG/G987GG, TAA1118/TAC1118). O polimorfismo na posição 669 foi identificado por PCR seguido de SSCP e confirmado por sequenciamento direto. Os polimorfismos nas posições 987 e 1118 foram detectados por PCR alelo-específico. Os resultados obtidos indicaram que o haplótipo intragênico A-C-A estava associado ao alelo com a expansão na maioria dos pacientes (92%). Estes resultados confirmam achados em outros estudos. Isto indica que uma única mutação na DMJ foi introduzida em várias populações, seguida de um efeito fundador local, e indicando também que provavelmente esta mutação é muito antiga. E, para finalizar, baseado neste estudo e comparando com dados gerados no estudo mundial de haplótipos, pode-se especular que a origem da mutação associada a DMJ nos pacientes do sul do Brasil é proveniente da ilha de Flores.
Resumo:
Neri e Xerez (2003) discutem a racionalidade econômica para o desenvolvimento de um sistema de metas sociais a partir de variantes estáticas do modelo agente-principal. Este sistema atua como forma do governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O presente trabalho desenvolve algumas extensões deste modelo com diferentes possibilidades de renegociação ao longo do tempo assim como a presença de choques. Demonstramos num contexto dinâmico com contratos completos que a melhor forma de aumentar a eficiência alocativa dos fundos transferidos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências expost criadas por não se usar a informação nova revelada ao longo do processo. Na segunda parte do artigo incorporamos a incidência de choques aleatórios. Mostramos que, quando os resultados sociais não dependem somente dos investimentos realizados pelo município, mas também de fatores estocásticos, o contrato estabelecido entre governo federal e municípios, deve estipular metas mais altas de forma a prevenir a ocorrência de estados ruins da natureza. Além disso, contratos lineares nesse tipo de situação são pró-cíclicos, reduzindo as transferências governamentais justamente quando o município sofre um choque negativo. Para evitar esse tipo de situação, mostramos que o estabelecimento de contratos que utilizam mecanismos de comparação de performance entre os municípios elimina o efeito pró-cíclico, garantindo aos municípios uma transferência fixa quando eles investem na área social.
Resumo:
Esta dissertação é um estudo exploratório a respeito do papel da confiança nas redes simétricas de empresas enquanto principal mecanismo de coordenação nas relações entre as empresas. O estudo analisa a experiência de uma rede de pequenas empresas estofadoras do Sistema Local de Produção Moveleiro de Bento Gonçalves, Rio Grande do Sul. A rede foi formada a partir de um programa governamental. Na parte teórica, é feita uma revisão sobre a cooperação interorganizacional e arranjos em rede. A revisão também incluiu os mecanismos de coordenação presentes nas redes, o conceito de confiança (sua relação com o imbricamento social) e o seu papel nas relações interorganizacionais. No final da parte teórica, é apresentado um modelo para analisar a confiança nas relações interorganizacionais dentro da rede. Na segunda parte, depois de dar algumas informações sobre a indústria moveleira do Rio Grande do Sul, é feita uma análise da rede tendo em vista as características e mecanismos de coordenação apresentados na revisão de literatura. Na seqüência, são feitas considerações sobre o caráter temporário ou estratégico desse tipo de arranjo interorganizacional. Também é feita a aplicação do modelo e analisado como a confiança é vista pelas empresas da rede. Conforme sugerido pela literatura, os resultados da análise indicam um papel muito importante da confiança e do imbricamento social no início e manutenção das relações interorganizacionais dentro da rede. Os resultados contribuem com o tema emergente do papel da confiança em redes de empresas. As contribuições são importantes tanto para pequenas empresas que queiram se organizar em rede quanto para instituições e formuladores de política pública.
Resumo:
As ataxias espinocerebelares (SCAs) constituem um grupo de doenças neurodegenerativas fatais que apresentam uma grande heterogeneidade clínica. A doença de Machado-Joseph (DMJ), ou ataxia espinocerebelar tipo 3 (SCA3), é causada por uma expansão de uma seqüência repetitiva CAG em um gene, denominado MJD1, localizado no braço longo do cromossomo 14, expansão codificadora de uma seqüência poliglutamínica constituinte da proteína ataxina 3. Indivíduos normais apresentam entre 12 a 41 repetições, enquanto indivíduos afetados apresentam 61 a 84 repetições CAGs neste gene. Este trabalho teve como objetivos principais a padronização de metodologias moleculares para o identificação e a quantificação do número de repetições CAG no gene responsável pela da DMJ. Um grupo de 112 pacientes, pertencentes a 77 famílias, com suspeita clínica de algum tipo de ataxia espinocerebelar foi avaliado no Hospital de Clínicas de Porto Alegre. Após a extração de DNA destes pacientes, este material foi amplificado por PCR utilizando oligonucleotídeos iniciadores específicos para a região de interesse e posterior transferência destes fragmentos (1) para uma membrana de nylon pelo método de Southern blot, visando ao estabelecimento de um protocolo não-radioativo para detectar a presença do alelo normal e/ou mutante; e (2) análise em gel de poliacrilamida para quantificação do número de repetições presentes no alelo mutante. As análises laboratoriais identificaram um total de 77 pacientes com uma expansão CAG no gene da MJD1. Considerando-se apenas indivíduos não relacionados, a freqüência encontrada foi de 61% (47 indivíduos). Os protocolos estabelecidos demonstraram-se bastante eficazes e sensíveis para o diagnóstico da DMJ e quantificação do alelo expandido da respectiva doença.