113 resultados para Múltiplas conexões
Resumo:
Esta pesquisa trata de uma tentativa de relação entre duas amplas e difíceis noções — desenvolvimento rural e biopolítica — a partir de algumas entrevistas realizadas com agentes do aqui denominado campo tecnocientífico vinculado às ciências agrárias no sul do Brasil: extensionistas, pesquisadores(as) e professores(as). Essas noções, desenvolvimento rural e biopolítica, articulam-se mais por inclusão que exclusão de um variado conjunto de conceitos e propostas de sociedade. Para apoiar esta relação tenta-se utilizar o referencial teórico da análise de discurso através de seu método mais simples: a constância de repetição de termos-chave pelos agentes em suas exposições sobre o debate atual do desenvolvimento rural. Este referencial ajuda a suspender a concepção de um indivíduo coerente e consciente de seu discurso, bem como a perceber a persistência ou modificação de certas crenças e mitos na formação de ideais societários para o rural no Brasil Por outro lado, o estudo a respeito do desenvolvimento rural não poderia dar-se apenas no nível discursivo. Sua formulação está composta também por esquemas de percepção, de apreciação e ação realizadas sob condições estruturais do campo tecnocientífico. A articulação, então, de dois conceitos bourdianos (habitus e campo) foi imprescindível para a proposta desta pesquisa, embora não chegando a fundo em suas possibilidades analíticas. Não obstante o discurso acerca da noção de desenvolvimento rural aparecer polêmico, ou seja, aberto a múltiplas interpretações, nele há uma regularidade — ou a manutenção de um repertório temático — indicativa da possibilidade dele ser abordado sob a análise da idéia foucaultiana de biopolítica. Assim, desenvolvimento rural, ou desenvolvimento de forma geral, poderia ser entendido e analisado sob a ótica de um conjunto de medidas e exercícios de governo que se dá sobre a produção da vida, para através desta, conseguir seus efeitos de poder A proposta desta pesquisa, em sua opção teórica, foi perceber a regularidade de noções sobre desenvolvimento rural nas locuções dos agentes, verificando, nas análises de entrevistas — muito mais que divergências e diferenças de opiniões e ideais — o discurso que se mantêm, um conjunto de idéias que, embora produzidas sobre diferentes formulações, faz parte de um “dizível” historicamente sedimentado na memória social. Mas a estabilização dos sentidos de desenvolvimento rural presos, diga-se assim, a alguns termos-chave acaba mostrando, também, o seu contrário, um conflito nos processos de significação, uma constante ruptura com as definições passadas de desenvolvimento, trocas e negações de filiações conceituais e ideológicas, em um movimento criativo de resignificações (transformação) de sujeitos e realidade social.
Resumo:
Alguns movimentos de atualização do plano educação se efetuam no funcionamento de máquinas abstratas. A partir de uma abordagem genealógica do processo de informatização das escolas públicas, ocorrido no Brasil, este trabalho de Dissertação marca alguns movimentos de desterritorialização e de territorialização no plano Informática Educativa. Um movimento de abordagem genealógica analisa o modo como estamos inseridos num dispositivo específico e será objetivo desta Dissertação assinalar a produção e a mutação do que denomino dispositivo informático – que se produz no acontecendo. Para efetivar esta análise utilizei como referência as perspectivas político-filosóficas de Michel Foucault e Gilles Deleuze, produzindo desdobramentos entre as aproximações que efetuo desses autores. Utilizando o conceito foucaultiano de dispositivo articulado com outros conceitos que se avizinham em linhas segmentares e de fuga, conecto os campos da informática, da militarização e da economia ao campo educacional. Em tal movimento, conceptualizo a Informática Educativa como plano de imanência, configurando uma política, cujos traços diagramáticos, informatização, pedagogização e democratização, atravessam os agenciamentos concretos, escola, comunidade, secretarias de ensino, equipamentos informáticos, Estado, alunos, professores, entre outros, produzindo uma rede de tensionamentos. As trajetórias percorridas indicam possibilidades de produzir uma experimentação, no sentido de Deleuze – trajetórias múltiplas que possibilitam produzir múltiplos devires.
Resumo:
o estudo da relação entre a complexidade do conhecimento e sua construção no ambiente escolar apóia-se na Epistemologia Genética e no paradigma da complexidade. A investigação se delineou como um estudo qualitativo, inspirado na metodologia de Estudo de Caso. O problema de pesquisa procurou indagar a repercussão da fragmentação dos conteúdos programáticos em disciplinas nos anos finais do Ensino Fundamental. Os dados foram coletados através de múltiplas fontes de evidência. Realizaram-se entrevistas, inspiradas na abordagem clínica piagetiana, com alunos e professores; - observações diretas do tipo participante como observador e análise documental. Os dados coletados indicam que as práticas escolares apresentam pressupostos epistemológicos e paradigmáticos que se apóiam no senso comum e estendem-se em métodos empiristas/aprioristas e reducionistas. O pensamento do aluno é manipulado de forma a se enquadrar ao modelo escolar. A fala é reduzida a uma mera ação prática, pois, embora exercida, o professor desconsidera a importância do diálogo. Por sua vez, os exercícios apresentam-se como dois lados de uma mesma moeda. Podem manifestar-se como promotores de técnicas empiristas, quando colocados sob a forma de repetição para a memorização. Todavia, podem se revelar como um recurso extremamente valioso quando colocam um problema, apresentam desafios e permitem a testagem de hipóteses do sujeito. Já os conteúdos programáticos visam a uma eterna diferenciação do objeto de estudo, a qual se configura como uma simples fragmentação capaz de eliminar qualquer dimensão do conhecimento enquanto totalidade. O tempo da aprendizagem acaba por se igualar com aquele que o professor gasta para expor a informação ao aluno. Isso o relega a uma posição passiva que retira o caráter de equilíbrio dinâmico do conhecimento, pois esse sempre se apresenta como um produto pronto e acabado. A escola, então, tem um desconhecimento do próprio conhecimento e o senso comum, que é empirista/apriorista no campo epistemológico, é reducionista em sua dimensão paradigmática.
Resumo:
Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.
Resumo:
Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.
Resumo:
O comportamento meiótico e viabilidade do pólen foram estudados em 23 acessos de sete taxa de Lupinus ocorrentes no Rio Grande do Sul. Para as espécies L. lanatus, L. rubriflorus, L. multiflorus, L. paranensis, L. bracteolaris, L. guaraniticus e Lupinus sp., o pareamento cromossômico foi regular com preferencial formação de bivalentes, mas a ocorrência de alguns poucos quadrivalentes foi observado em um acesso de Lupinus sp e presença de quadrivalentes, associações múltiplas e aderência cromossômica foi evidenciada em um acesso de.L. guaraniticus. O índice meiótico e a estimativa da viabilidade do pólen foram superiores a 90% em todos os acessos e espécies analisadas, como reflexo da regularidade meiótica, indicando serem plantas meióticamente estáveis. Números cromossômicos de (2n=36) foram determinados pela primeira vez para L. guaraniticus e L. paraguariensis e confirmados números de 2n=36 para L. lanatus, L. rubriflorus e 2n=34 para L. bracteolaris ocorrentes no Rio Grande do Sul. Em 13 acessos analisados de Lupinus sp provenientes do Peru e Bolívia foi observado 2n=48 cromossomos, e 2n=36 em dois acessos de Lupinus cf. bandelierae da Bolívia. No híbrido ornamental Lupinus Russel foi observado 2n=48 cromossomos. As duas espécies unifolioladas norte americanas L. cumulicula e L. villosus exibiram número cromossômico de 2n=52, diferindo dos demais números conhecidos para as Américas. Os dados cromossômico obtidos neste trabalho aliados aos da literatura reforçam a idéia de que os lupinos andinos formam um grupo citológico diferenciado dentro do gênero, que os lupinos do sudeste da América do Sul são também um grupo citologicamente diferente da maioria dos demais taxa americanos, e que os lupinos unifoliolados norte americanos e os brasileiros não são diretamente relacionados.
Resumo:
Este trabalho estuda o movimento de renovação do ensino da matemática conhecido como o "movimento da matemática moderna",surgido no Brasil no inicio dos anos 60. Através do estudo da ação, do discurso e do pensamento dos protagonistas em relação com o contexto histórico em que foram produzidos e com o movimento da matemática moderna de âmbito internacional, procura explicar o alcance e as limitações desse movimento, em sua dinâmica e elaboração pedagógica. A abordagem adotada considera tanto os aspectos do movimento que o identificam com um processo mais amplo e de âmbito mundial de crescente valorização do ensino das ciências naturais e da matemática no período que sucedeu à Segunda Guerra Mundial, no qual o movimento da matemática se insere, como as especificidades do movimento relacionadas com a ação dos protagonistas e a realidade do pais. A análise do movimento como ocorreu no Brasil é feita fundamentalmente a partir da leitura de documentos produzidos durante o periodo de sua existência e de depoimentos obtidos através de entrevistas semi-estruturadas com participantes do movimento. O contexto no qual é situada essa análise inclui uma descrição breve da realidade politica, econômica e social do pais, com ênfase na realidade educacional - em particular, do ensino secundário e nos debates pedagógicos produzidos no período As modificações nas relações entre ciência e produção material no âmbito da economia capitalista são tratadas como elemento decisivo para a explicação da combinação entre esforços de governos e de educadores para a renovação e melhoria do ensino da matemática, desde os anos 50, em vários paises. O trabalho apresenta, em suas conclusões, conexões que contribuem para a clarificação de como o movimento foi marcado pelo contexto histórico em que surgiu e se desenvolveu. São enfatizadas as relações entre: o crescimento e a modernização da economia brasileira e o otimismo acerca das consequências sociais da melhoria do ensino e do desenvolvimento da ciência no pais; a expansão do ensino secundário desde os anos 30, acelerada nos anos 60, e as preocupações dos educadores acerca da eficiência e da deselitização desse ensino. O trabalho aponta, também, as conexães entre o movimento da matemática moderna e os debates sobre ensino de matemática realizados no pais antes e depois do movimento, situando-o como momento de um processo iniciado nos anos 50, anos 80, de iniciativa dos professores de matemática em torno da reflexão e renovação de sua própria prática.
Resumo:
O objetivo deste estudo foi avaliar e comparar in vitro o desempenho dos fotoativadores Apollo® 95E /DenMed Technologies, com luz xênon (arco de plasma - PAC), e o Curing Light® XL 3000 /3M-Unitek, com luz halógena (convencional - QTH), comparando-se, desta forma, um fotoativador de alta intensidade de luz (PAC) com um convencional (QTH). A efetividade dos aparelhos foi verificada pelo grau de polimerização apresentado pela resina composta (Transbond™XT/3MUnitek), avaliado em espectrofotometria por infravermelho e pela análise de microdureza Knoop. Os tempos de ativação para a fonte PAC foram um, dois e três segundos e, para a fonte QTH, foram 10, 20 e 30 segundos, buscando-se avaliar a equivalência, ou não, dos diferentes tempos das diferentes unidades fotoativadoras. Foram usadas matrizes metálicas circulares, que receberam a resina para posterior polimerização. Para cada tempo de ativação, para cada aparelho e para cada teste, foi fotoativada a resina composta de cinco corpos-de-prova. Foi avaliada, também, a temperatura no extremo distal do condutor de luz de cada aparelho, nos seus respectivos tempos predeterminados, colocando-se justaposto, à ponta do fotoativador, o sensor do dispositivo de aferição Sekundenthermometer/GTH 1160 – Phywe. Os resultados obtidos foram submetidos ao teste não-paramétrico Kolmogorov-Smirnov, à Análise de Variância (ANOVA) e ao teste de comparações múltiplas de Tukey. Os resultados da espectrofotometria apontaram diferença estatística significativa entre os grupos estudados. O grupo QTH alcançou as maiores médias e diferiu do grupo PAC (p=0,01). O ensaio de microdureza Knoop também apresentou resultados que apontaram a existência de diferença estatística significativa entre os grupos estudados, tendo o grupo QTH alcançado as maiores médias (p=0,01). A avaliação da temperatura igualmente apresentou diferença estatística significativa entre os grupos estudados (p=0,01), sendo que o grupo QTH atingiu as maiores médias. Com base na metodologia empregada e na análise dos dados obtidos no presente estudo, pode-se concluir que o grau de polimerização da resina composta e a temperatura no extremo distal do condutor de luz apresentaram diferença estatística significativa com o uso das unidades fotoativadoras Apollo® 95E (xênon) e Curing Light® XL 3000 (halógena) nos respectivos tempos predeterminados (p=0,01), ficando sempre, com as maiores médias, o aparelho convencional com luz halógena.
Resumo:
Este trabalho investiga os elementos que caracterizam a escrita pianística da Paulistana nº 7 de Claudio Santoro. Examina como a escrita pianística desenvolveu-se em decorrência dos eventos sócio-culturais desde os seus primórdios até meados do século XX. Contextualiza historicamente a obra, expõe a análise formal e harmônica da peça e exibe as conexões entre os elementos que caracterizam a escrita pianística da Paulistana nº 7 e os de outras obras do repertório pianístico brasileiro.
Resumo:
Este estudo constitui-se em uma análise de processos de recepção teatral que se propõe a mapear e discutir acerca das diversas mediações que interpolaram o espaço de criação e de co-autoria entre a linguagem teatral e um grupo de crianças espectadoras, podendo ser localizado na intersecção entre três campos distintos: os Estudos Culturais, a Educação e o Teatro. O foco central é refletir acerca das experiências infantis com o teatro na contemporaneidade. Logo, traço relações e constituo a investigação a partir de um triângulo composto por três vértices: o teatro infantil (como produção cultural), as crianças (enquanto sujeitos-atores-personagens desta história) e a escola (como cenário e comunidade de apropriação e interpretação do teatro pelas crianças). O referencial teórico, bem como as análises efetuadas a partir dos dados construídos junto a um grupo de 18 crianças espectadoras, parte da teoria das mediações de Jesús Martín-Barbero, da proposta das múltiplas mediações de Guillermo Orozco Gómez e do conceito de experiência desenvolvido por Larrosa, entre tantos outros autores que inspiraram este estudo. Na construção do material empírico analisado, vali-me de uma estratégia multimetodológica, na qual as crianças e eu, através de jogos teatrais, narrativas orais, entrevistas, produção gráfica e observação participante, construímos os dados. A modo de conclusão, posso inferir que a escola é uma das mediações mais recorrentes e ativas que atravessam e compõem a relação das crianças com a linguagem teatral. O contato com a mídia, com as tecnologias digitais, com produtos e artefatos audiovisuais e espetaculares diversos também são mediações de relevância (repertório anterior), bem como as mediações referenciais (gênero, sexualidade, etnia e grupos de idade), a família e muitas outras que puderam ser observadas, como a presença de rupturas com leituras (ditas) preferenciais, a fuga do onírico e a presença do escatológico em algumas narrativas infantis. Todas estas mediações sugerem às crianças determinado (re)conhecimento de algumas características e especificidades do teatro, assim como expectativas em relação ao contato com a linguagem teatral. As análises empreendidas demonstram que as múltiplas mediações atravessam e constituem, portanto, as experiências infantis nos processos de recepção, contribuindo para a formação de suas – híbridas – identidades de crianças espectadoras na contemporaneidade.
Resumo:
Esta dissertação de mestrado apresenta um a investigação das causas que levara mum talude rodoviário à ruptura. Esse talude localiza-se no município de São Jerônimo, no Km 7+500 da rodovia RS/470. A ruptura foi progressiva, tendo início logo após a abertura do corte para a execução da rodovia e envolveu um a extensão demais de 100 metros. Foram levantados aspectos geológicos e geomorfológicos da região, indicando tratar-se de uma área localizada na Depressão Periférica, com relevo suave ondulado. Os dois solos que compõe o talude foram descritos e amostrados. Foram realizados ensaios de caracterização e ensaios de cisalhamento para as diversas condições de deformação dos materiais. Foram feitos diversos ensaios de cisalhamento direto: a) com amostras indeformadas, buscando-se determinar parâmetros de resistência para a condição de pico e, b ) ensaios especiais, utilizando a técnica de reversões múltiplas para determinar parâmetros de resistência na condição de grandes deformações. Foram feitos também ensaios de cisalhamento por torção (ring shear), buscando-se parâmetros de resistência para a condição residual. A estabilidade do talude foi verificada para duas geometrias, a inicial e a pós-ruptura, utilizando-se os parâmetros de resistência ao cisalhamento obtidos nos ensaios realizados. A retro-análise da situação inicial indicou que as rupturas iniciais mobilizaram um valor de resistência ao cisalhamento correspondente a um a condição de deformação intermediária entre a condição de pico e a de grandes deformações. A retro-análise da condição atua lindicou que os solos ainda não atingiram a condição residual, sendo que a resistência mobilizada é melhor representada pelos parâmetros na condição de grandes deformações.
Resumo:
A prolactina(PRL) humana circula em múltiplas formas de diferentes tamanhos moleculares, das quais três são detectadas na cromatografia por filtração em gel(CFG): Little ou monomérica(mPRL), Big( bPRL) e Big-Big ou macroprolactina( bbPRL ou macroPRL). Em pessoas normais, a principal forma é a mPRL(85 a 90% do total) com uma pequena proporção de macroPRL. Em algumas pessoas, porém, ocorre uma maior quantidade de macroPRL, um fenômeno denominado Macroprolactinemia, que se sabe estar presente entre 10-25% dos soros hiperprolactinêmicos. É importante a sua identificação para evitar investigação e tratamento desnecessário. O método padrão para sua detecção é a cromatografia por filtração em gel( CFG); porém, a precipitação com polietilenoglicol( PEG) é um método de triagem simples, confiável e de baixo custo. Os testes com PEG originais foram feitos com o ensaio imunofluorimétrico( IFMA) Delfia para PRL. Objetivo: Validar um teste sensível e específico para a triagem de macroPRL baseado no ensaio de PRL quimioluminescente Immulite DPC. Resultados e métodos: Analisamos amostras séricas de 142 pessoas de ambos sexos. Baseado nessas amostras de rotina, dosamos a PRL seguida da precipitação com PEG e cálculo da recuperação de PRL( %R de PRL). Destes soros, 88 foram submetidos a cromatografia com filtração em Gel. Foi definido um ponto-de-corte para a presença de macroPRL, baseado numa curva ROC, ao comparar-se os resultados do teste de precipitação com PEG e os da CFG. O ponto-de-corte foi definido em 60%, com o achado de um teste com sensibilidade de 88,9% e especificidade de 98,6%. Correlacionou-se a dosagem de mPRL com a presença de macroPRL na cromatografia. Conclusão: Validamos um teste de triagem para macroPRL baseado no ensaio quimioluminescente DPC Immulite com sensibilidade de 88,9% e especificidade de 98,6 % para a porcentagem de recuperação PRL de 60%. O achado de uma valor de mPRL menor ou igual a 20 depois da precipitação com PEG vai suportar este diagnóstico. A prevalência( 20,4%) de macroPRL encontrada em nosso estudo, utilizando a metodologia proposta, é semelhante à encontrada na literatura.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
The evolution of integrated circuits technologies demands the development of new CAD tools. The traditional development of digital circuits at physical level is based in library of cells. These libraries of cells offer certain predictability of the electrical behavior of the design due to the previous characterization of the cells. Besides, different versions of each cell are required in such a way that delay and power consumption characteristics are taken into account, increasing the number of cells in a library. The automatic full custom layout generation is an alternative each time more important to cell based generation approaches. This strategy implements transistors and connections according patterns defined by algorithms. So, it is possible to implement any logic function avoiding the limitations of the library of cells. Tools of analysis and estimate must offer the predictability in automatic full custom layouts. These tools must be able to work with layout estimates and to generate information related to delay, power consumption and area occupation. This work includes the research of new methods of physical synthesis and the implementation of an automatic layout generation in which the cells are generated at the moment of the layout synthesis. The research investigates different strategies of elements disposition (transistors, contacts and connections) in a layout and their effects in the area occupation and circuit delay. The presented layout strategy applies delay optimization by the integration with a gate sizing technique. This is performed in such a way the folding method allows individual discrete sizing to transistors. The main characteristics of the proposed strategy are: power supply lines between rows, over the layout routing (channel routing is not used), circuit routing performed before layout generation and layout generation targeting delay reduction by the application of the sizing technique. The possibility to implement any logic function, without restrictions imposed by a library of cells, allows the circuit synthesis with optimization in the number of the transistors. This reduction in the number of transistors decreases the delay and power consumption, mainly the static power consumption in submicrometer circuits. Comparisons between the proposed strategy and other well-known methods are presented in such a way the proposed method is validated.
Resumo:
O trabalho objetiva demonstrar a importância da iluminação pública na valorização da paisagem urbana noturna. Procura situar o pensamento histórico dos sistemas públicos de iluminação, ao descrever as modificações na maneira de encarar a iluminação pública, desde o século 16 até a atualidade. Analisa a função da iluminação pública voltada para o trânsito motorizado, as influências da iluminação no meio ambiente e as interferências da vegetação. Analisa ainda, a iluminação pública como fator de animação dos ambientes urbanos iluminados. A iluminação compondo a valorização da paisagem urbana ao impor uma identidade luminosa à cidade. Os procedimentos para a implantação do plano diretor de iluminação e suas conexões com o planejamento urbano. Finalmente apresenta um estudo de caso em um trecho da Avenida Iguaçu, em Curitiba, onde o melhoramento na iluminação pública favoreceu a melhor utilização do espaço urbano iluminado.