11 resultados para Programadores de computador - Análise profissiográfica
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.
Resumo:
Fundamentalmente, o presente trabalho faz uma análise elástica linear de pontes ou vigas curvas assimétricas de seção transversal aberta e de parede fina, com propriedades físicas, geométricas e raio de curvatura constantes ao longo do eixo baricêntrico. Para tanto, utilizaram-se as equações diferenciais de VLASOV considerando o acoplamento entre as deformações nas direções vertical, transversal, axial de torcão nal. Na solução do sistema de quatro equações com derivadas parciais foi utilizado um apropriado método numérico de integração (Diferenças Finitas Centrais). A análise divide-se, basicamente, em dois tipos: análise DINÂMICA e ESTATICA. Ambas são utilizadas também na determinação do coeficiente de impacto (C.M.D.). A primeira refere-se tanto na determinação das características dinâmicas básicas (frequências naturais e respectivos modos de vibração), como também na determinação da resposta dinâmica da viga, em tensões e deformações, para cargas móveis arbitrárias. Vigas com qualquer combinação das condições de contorno, incluindo bordos rotulados e engastados nas três direções de flexão e na torção, são consideradas. 0s resultados da análise teórica, obtidos pela aplicação de programas computacionais implementados em microcomputador (análise estática) e no computador B-6700 (análise dinâmica), são comparados tanto com os da bibliografia técnica como também com resultados experimentais, apresentando boa correlação.
Resumo:
Conhecer o comportamento vibratório de rotores de máquinas rotativas, já durante a fase de projeto, é uma necessidade cada vez maior nos dias atuais, quando modificações corretivas, após o início da operação, já não são mais aceitáveis, devido aos altos custos de material e execução empregados, se comparados com os lucros que são cada vez mais reduzidos, em função das regras impostas pelo mercado, e devido também ao tempo necessário para tais modificações, que implica em manter a máquina parada, sem gerar lucros nesse penodo, acarretando em mu1tas contratuais para o fabricante. o presente trabalho visa dar subsídiosà análise dinâmicadas linhas de eixos de turbo e hidrogeradores (conjuntos formados pela turbina mais o gerador, usados respectivamentenas centraistermelétricase hidrelétricas). Inicialmente é feita uma breve explanação sobre formas construtivas de hidrogeradores e tipos de turbinas hidráu1icas utilizados atualmente. O trabalho prossegue apresentando as propriedades dos mancais com filme de óleo, os fenômenos do empuxo magnético no rotor do gerador e do efeito giroscópico, bem como a norma ISO 1940, que define os níveis admissíveis de desbalanceamentos residuais para rotores de máquinas É apresentada uma formulação matemática pelo Método das Matrizes de Transferência para as análises das vibrações livres, bem como das vibrações forçadas com carregamentos cíclicos devido aos desbalanceamentos residuais das linhas de eixos. A análise das vibrações livres é feita para a obtenção das fteqüências naturais torcionais e das fteqüências tlexionais críticas em um plano. A análise das vibrações forçadas é elaborada para fornecer as respostas dinâmicas em dois planos ortogonais, devido ao desbalanceamento residual. Para aplicação da metodologia de cálculo apresentada, são elaboradas rotinas computacionais de cálculos, utilizando como plataforma o software MATLAB. Para testar o Método das Matrizes de Transferência, bem como os programas de computador elaborados, faz-se algumas análises com soluções analíticas exatas e comparam-se resultados obtidos. Como aplicação prática, faz-se um estudo aprofundado dos comportamentos dinâmicos algumas linhas de eixos de hidrogeradores, para variações de configurações de construção dessas, bem como para as diversas condições de operação.
Resumo:
Este trabalho é sobre produção de sentidos. Seu propósito está relacionado à investigação das relações do sujeito com a linguagem na sua forma de escrita alfabética no processo de produção textual escolar. O fato de ocorrer a partir da análise de falas de crianças ao escreverem coletivamente histórias no computador possui dois objetivos; de um lado, interrogar sobre a representação do sujeito no texto e, de outro, questionar a utilização do computador nas escolas como uma nova tecnologia da escrita. Para que fosse possível dar alguma visibilidade ao processo de produção textual e não restringir-se apenas ao produto final, quer dizer à história pronta, optou-se por uma metodologia que permitisse algum tipo de acesso ao modo como a criança produzia o texto. Uma solução viável foi encontrada na gravação das situações interativas de conversação, em que cada grupo de alunos estaria produzindo sua história no computador. Esta gravação tornou-se o material a ser analisado. O referencial teórico está fundamentado na psicanálise, a partir de Jacques Lacan, na lingüística enunciativa, representada por Jaqueline Authier-Revuz e na análise de discurso inaugurada por Michel Pêcheux. Seguindo estas teorias, analisamos o sujeito da enunciação e o inconsciente enquanto discurso do Outro. A análise buscou a indicação de autonímias, onde destacam-se as “não-coincidências do dizer”, termo cunhado por Authier-Revuz para explicitar a presença do outro na constituição do discurso. A partir da análise apontamos para o sujeito como um efeito de leitura do discurso do Outro, um acontecimento que reconfigura a estrutura. Disso segue que todo discurso parte de uma escrita, pois se abre à leitura. Também apontamos para a escrita como a presentificação da diferença. Neste sentido postulamos que a autonímia é constitutiva do discurso pedagógico no que se refere à aprendizagem da língua escrita. Ela é um recurso necessário ao alfabeto. Sem a possibilidade da autonímia seria impossível o ensino da língua.. A partir destes resultados temos indícios que confirmam a hipótese de que o computador é uma nova tecnologia da escrita, assim como foram uma vez o papiro, o alfabeto, a imprensa. De certo modo a questão do sujeito e da linguagem ainda é a mesma, ou seja, diante do real o que o sujeito demanda é que ele seja representável. A forma que esta representação vai tomar depende dos discursos em questão.
Resumo:
Este trabalho apresenta um sistema virtual para suporte ao ensino, denominado SADA. O sistema se baseia na análise do desempenho durante a aprendizagem para implementar técnicas de adaptação para apresentação dos links. Tendo como objetivo principal auxiliar o ensino presencial, e caracterizar as possibilidades para se adaptar a navegação no conteúdo do curso através da forma de apresentação dos links. O SADA utiliza ferramentas computacionais de domínio público na Web, e possui um conjunto de opções para criação e divulgação de cursos com conteúdos didáticos, e questões de múltipla escolha para avaliação do desempenho do aluno. Um sistema de ensino como o SADA, mediado por computador e baseado na Internet (Web), pode ser uma ferramenta complementar ao trabalho do professor, por acrescentar maior dinâmica aos cursos ou disciplinas devido às novas formas de interação com o aluno.
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.
Resumo:
Fundamentos: A literatura tem demonstrado que a detecção precoce e a remoção cirúrgica em fases iniciais reduz a mortalidade do melanoma e que, em conseqüência, a identificação do melanoma em fases curáveis deve ser encorajada. Objetivos: O interesse principal do estudo foi conhecer se os melanomas cutâneos, no meio, estão sendo diagnosticados em fases iniciais, através de método reprodutível e armazenável. Metodologia: Foi realizado um estudo transversal com os casos de melanomas cutâneos primários, analisados nos laboratórios de patologia de Porto Alegre, de 1° de janeiro de 1994 a 30 de junho de 1995, a fim de avaliar se os diagnósticos foram realizados em estágios precoces. Os casos foram revisados por três dermatopatologistas, que classificaram quanto ao tipo histológico e quanto ao nível de invasão de Clark. Foi realizado um consenso com pelo menos duas concordâncias. A espessura de Breslow foi considerada fator prognóstico determinante e foi medida através de um sistema de análise de imagem computadorizada, por dois membros da equipe. Resultados: Do total de 279 casos que preencheram os critérios de inclusão, 2,15% eram intraepiteliais. Dos melanomas invasivos, 52% tinham espessura ≤ 1,5 mm. Quando agrupado por sexo e procedência, as mulheres de Porto Alegre, capital do estado do Rio Grande do Sul, tiveram a mais alta taxa de diagnóstico precoce (75% ≤ 1,5 mm). O tronco foi o sítio predominante no homem e freqüente na mulher. O melanoma de espalhamento superficial foi o tipo histológico mais freqüente (80,9%), seguido pelo nodular (10,1%). Para definir os determinantes do diagnóstico precoce, foram realizados cruzamentos simples, dos melanomas intraepiteliais somados aos de espessura <0,76 mm, com o sexo, a idade, a procedência, a situação previdenciária, a região anatômica e o tipo histológico. A análise de variáveis múltiplas demonstrou que apenas o sexo (feminino), o sítio anatômico (outras regiões exceto membros inferiores) e a procedência (Porto Alegre) mostraram-se variáveis independentes para determinar um diagnóstico precoce. A idade ≥ 40 anos apresentou significância próxima ao limite. O tipo histológico foi excluído do modelo, uma vez que gerou instabilidade estatística. Conclusão: Embora o número de casos fosse pequeno, o diagnóstico do melanoma ainda é tardio (52% com até 1,5 mm de espessura). Entretanto, existe um subgrupo de diagnóstico precoce que são mulheres, sobretudo de Porto Alegre, possivelmente por estarem mais atentas e informadas sobre os riscos do melanoma. As mudanças no estilo de vida, nas últimas décadas, provavelmente são responsáveis pela maior incidência no tronco e pela alta freqüência de melanoma de espalhamento superficial encontrada. A análise da espessura tumoral por projeção em tela de computador mostrou-se um recurso auxiliar vantajoso.
Resumo:
O objetivo da presente pesquisa foi analisar o uso de recursos digitais em uma escola pública estadual, em Minas Gerais, identificando as implicações na ação pedagógica e na dinâmica institucional. Procurou-se dar ênfase ao debate que problematiza a função social da escola na sociedade do conhecimento. Discute-se de que modos a inclusão digital se conecta com a construção/consolidação do Projeto Político-Pedagógico no interior das escolas. As bases teóricas que sustentam o trabalho são: a perspectiva freireana de uma pedagogia dialógica integrada aos estudos que focalizam o pensamento construtivista associado à informática educativa. De acordo com esta perspectiva, o presente trabalho analisa a inclusão digital como processo que pode estar a serviço da ampliação dos percursos de escolarização e da qualificação do ensino. A investigação, de caráter qualitativo, focalizou as ações em uma escola de Ensino Fundamental e Médio, utilizando como instrumentos metodológicos prioritários: o diário de campo, a observação participante, o grupo focal, as entrevistas semi-estruturadas, além de fotos. As observações foram realizadas durante as atividades que envolviam os diferentes sujeitos - alunos, professores, gestores e familiares – e que ocorreram ao longo de aproximadamente 18 meses. Durante a análise, foram destacados os aspectos relativos à implicação, à participação e à auto-gestão nos processos educacionais. Além disso, houve, na escola, uma intensificação do uso dos recursos digitais, amparada em uma ampla discussão coletiva sobre as diretrizes pedagógicas da instituição.
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.
Resumo:
Esta Tese apresenta uma análise do comportamento térmico de um sistema de aquecimento de água combinando energia solar e gás como fontes energéticas. A ênfase desta análise está na influência que a forma de conexão dos coletores solares e do circuito da fonte auxiliar de energia ao reservatório exercem sobre a eficiência e o custo de operação do sistema. O trabalho engloba uma montagem experimental, caracterização de componentes, validação experimental de um programa de simulação, análises de eficiência utilizando o programa e análises econômicas com dados simulados. Na fase experimental desta Tese, foram montados três sistemas de aquecimento de água. Dois sistemas utilizando reservatórios verticais e um sistema utilizando reservatório horizontal. Os sistemas foram montados com componentes similares: reservatórios metálicos isolados termicamente com capacidade de 600 litros (verticais), reservatório de polietileno isolado termicamente com capacidade de 600 litros (horizontal), 2 coletores solares de placas planas, tubulação de cobre e aquecedores a gás de passagem de 7,5 l /min. Os componentes foram caracterizados mediante a curva de eficiência dos coletores solares, eficiência dos aquecedores a gás de passagem e o coeficiente de perdas térmicas dos reservatórios Sensores foram instalados para monitorar os sistemas em operação. Os sinais dos sensores foram medidos através de uma central de aquisição de dados conectado a um computador. Temperaturas, irradiância solar, consumo de gás e consumo de água foram registrados ao longo do tempo. Os resultados experimentais foram comparados com resultados calculados por meio de um programa desenvolvido no Laboratório de Energia Solar apresentando boa concordância. Utilizando o mesmo programa determinou-se a configuração do sistema de aquecimento de água com energia solar e gás mais eficiente para a cidade de Porto Alegre com um determinado perfil de consumo. Outros tipos de sistemas de aquecimento de água foram simulados para atender o mesmo perfil de demanda. Análises econômicas comparando estes sistemas entre si foram realizadas considerando diversos cenários econômicos.