55 resultados para ferramentas de auxílio à tradução
Resumo:
A crescente necessidade de padronização, eficácia e gerenciamento de processos têm aumentado o interesse das mais diferentes organizações pela tecnologia de workflow. Entretanto, a rápida propagação da tecnologia de workflow, ocorrida na última década, fez com que muitos sistemas desenvolvidos nesta área fossem disponibilizados e difundidos sem uma padronização clara. Analisando-se especificamente a fase de construção do workflow, nota-se que há muitas divergências. Conceitualmente, ainda não há modelos nem metodologias de modelagem amplamente aceitos e consolidados. Quanto às implementações, ainda não existe uma especificação clara e detalhada das ferramentas de definição. A conseqüência deste panorama é a baixa interoperabilidade e a baixa padronização dos conceitos, funcionalidades e interações das ferramentas de definição. Contudo, muitos esforços estão sendo feitos para solucionar o problema da interoperabilidade e padronização. A área de workflow como um todo já começa a apontar fortes tendências de padronização dos conceitos, funcionalidades e interações de seus sistemas. Detectar e avaliar tais tendências são os focos de estudos desta dissertação. Mais precisamente, o objetivo desta dissertação é fornecer informações e métodos que possam ajudar desenvolvedores e usuários de ferramentas de definição a: compreender, descrever e avaliar os conceitos, funcionalidades e interações deste tipo de ferramenta. Para tanto, é mostrado um método de descrição de modelos conceituais de ferramentas de definição. O referido método é resultado de uma pesquisa sobre o modelo conceitual deste tipo de ferramenta. Com base nas informações pesquisadas, foi desenvolvido o modelo conceitual de uma ferramenta de definição chamada de Amaya Workflow (AW). Para mostrar a viabilidade de implementação do modelo conceitual AW e concretizar em um software os estudos desenvolvidos durante esta dissertação, foi implementado o protótipo Amaya Workflow. Por fim, é mostrado um panorama geral das funcionalidades, conceitos e interações das principais ferramentas de definição existentes. Com base neste panorama e nos estudos anteriores, é descrito um método de avaliação de modelos conceituais de ferramentas de definição.
Resumo:
A heparina foi isolada no início do século XX e permanece, até os dias atuais, como um dos mais importantes e eficientes agentes terapêuticos de ação antitrombótica. Sua atividade anticoagulante deve-se à ativação da antitrombina (AT), uma serpina responsável pela inibição fisiológica de serino-proteinases plasmáticas, tais como fIIa e fXa. Os esforços no sentido da elucidação dos aspectos estruturais e dinâmicos associados ao reconhecimento molecular da heparina pela AT, em nível atômico, vêm encontrando diversas dificuldades, principalmente associadas aos compostos sacarídicos. Em decorrência de sua elevada polaridade e flexibilidade, glicosaminoglicanos como a heparina são difíceis de estudar e modelar. Soma-se a isto o fato de que os resíduos de iduronato presentes na heparina (IdoA) apresentam um incomum equilíbrio conformacional entre estados de cadeira (1C4) e bote-torcido (2SO), sendo esta última estrutura postulada como a possível conformação bioativa. Sendo assim, este trabalho apresenta um estudo de modelagem molecular do perfil conformacional da heparina, tanto em solução quanto complexada à AT, utilizando cálculos ab initio e simulações de dinâmica molecular (DM) Em decorrência da ausência de parâmetros capazes de descrever polissacarídeos nos campos de força atualmente disponíveis, cargas atômicas foram geradas, utilizando-se os esquemas de Mulliken, Löwdin e cargas ajustadas ao Potencial Eletrostático, através de cálculos quantum-mecânicos na base 6-31G** e testadas na simulação de DM da heparina. Diversas condições de simulação, tais como modelos de água, concentrações de sais e as conformações 1C4 e 2SO do IdoA, foram avaliadas de forma a identificar as melhores condições para a descrição conformacional da heparina em solução. O protocolo de DM obtido foi então utilizado no estudo do complexo AT-heparina. Os resultados obtidos estão de acordo com os dados experimentais atualmente disponíveis acerca da conformação da heparina e da contribuição energética de cada resíduo de aminoácido da AT para a formação do complexo com a heparina. A partir dos cálculos ab initio realizados, foi proposto um refinamento na estrutura da heparina determinada por RMN, enquanto que as simulações de DM permitiram reinterpretar aspectos da estrutura tridimensional da AT determinada por cristalografia de raios-X. Adicionalmente, os dados obtidos sugerem que não há requerimento conformacional para a interação do IdoA com a AT Globalmente, os dados indicam que simulações de DM podem ser utilizadas para representar adequadamente a conformação da heparina, assim como para caracterizar e quantificar suas interações com a AT. Assim sendo, propomos o uso de simulações de DM do complexo entre a AT e a heparina, ou entre a AT e compostos derivados da heparina, como uma ferramenta útil no processo de desenvolvimento de novos agentes antitrombóticos e anticoagulantes.
Resumo:
Este trabalho visa avaliar a contribuição do uso de dispositivos visuais no combate às perdas durante o processo de setup, dentro do conceito de troca rápida de ferramentas. O estudo foi realizado em uma metalúrgica, focando o setor de usinagem composto por tornos CNC (Controle Numérico Computadorizado). As melhorias relativas aos dispositivos visuais foram implantadas a fim de organizar o setor de tornos e reduzir o tempo de setup dessas máquinas. O processo de implantação iniciou a partir de um diagnóstico da situação existente quanto à troca de ferramentas, realizado por meio dos seguintes procedimentos: descrição dos processos de produção; levantamento da percepção dos funcionários quanto às melhorias necessárias; percepções da pesquisadora. Com base nesse diagnóstico, foi realizado um estudo para a priorização máquinas onde as melhorias seriam implementadas. Através do registro dos tempos de setup antes e após o período de implantação das melhorias, verificou-se que os tempos aumentaram em três máquinas e reduziram em três. Embora existam diferenças de desempenho entre as máquinas, algumas falhas no processo de implantação ficaram evidentes: falta de aderência aos padrões de setup, visto que os trabalhadores não separavam tempo interno e externo; treinamento insuficiente sobre a TRF e seus benefícios; falta de reuniões periódicas e negligência do estágio estratégico de preparação para a TRF, visto que não foram estabelecidas metas claras de desempenho nem um plano global de implantação.
Resumo:
O crescente grau de exigência dos clientes, o aumento da competição no setor, a mobilização da mão-de-obra em relação a melhores condições de trabalho e as flutuações de mercado têm levado a indústria da construção civil a passar por uma reestruturação em busca de maiores níveis de qualidade e eficiência dos processos. Neste contexto, o presente trabalho têm como objetivo propor diretrizes e ferramentas para o controle das perdas na construção civil, tomando como referencial teórico a chamada Nova Filosofia de Produção. O método de pesquisa dividiu-se em quatro etapas. Inicialmente, foi realizada uma revisão bibliográfica em torno dos temas de gestão de produção e controle das perdas, enfatizando estudos realizados no setor da construção civil. Numa segunda etapa foi realizado um estudo exploratório, inserido no projeto "Alternativas para a Redução do Desperdício de Materiais nos Canteiros de Obras", destacando a análise dos resultados obtidos em dez canteiros de obras na cidade de Porto Alegre. Na terceira etapa, foram realizados estudos de casos em três canteiros de obras, visando o desenvolvimento de ferramentas para o controle de perdas. Na quarta etapa foi realizado um refinamento das referidas ferramentas. Como principal conclusão deste estudo, constatou-se a necessidade de realizar o controle de perdas através de ferramentas que possibilitam transparência ao processo, que sejam de fácil utilização, de baixo custo para a empresa, e que apresentem respostas rápidas para que possam ser implantadas melhorias no processo analisado, no momento em que as mesmas são identificadas.
Resumo:
Este trabalho observa e descreve o processo de composição de termos em textos de Medicina em língua alemã e sua tradução para o português. Ao buscar o reconhecimento de padrões de construção da terminologia e da sua tradução, a pesquisa faz uma revisão da literatura que inclui o tratamento gramatical e lexicográfico dos compostos em alemão, de trabalhos que tratam da tradução de Komposita, além de revisar fundamentos teóricos de Terminologia e de Tradução e sua relação com a composição de termos. A perspectiva adotada pela pesquisa vincula Lingüística de Corpus e enfoques de perspectiva textual de Terminologia, além de relacionar padrões de tradução de compostos a uma maior ou menor inserção cultural do texto traduzido. O trabalho apresenta um levantamento quantitativo e qualitativo de ocorrências de compostos e de suas traduções em um corpus formado por textos didáticos de Medicina nas subáreas Fisiologia e Genética. O corpus alinhado alemão-português é composto por 99 parágrafos de texto. A diversidade de escolhas de tradução verificada e a concentração de escolhas no padrão substantivo+preposição+substantivo apontam uma baixa inserção cultural da tradução produzida para o português
Resumo:
Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.
Resumo:
Os fenômenos da tradução, assim como vários dos diversos percursos históricos e teóricos apresentados ao longo da História sobre o tema, serão explicitados e discutidos. A avaliação comparatista de duas traduções de Moll Flanders, de autoria de Daniel Defoe, será desenvolvida, levando-se em consideração as concepções mais atuais dos Estudos de Tradução, como a teoria da Reescritura de Andre Lefevere. Aspectos como o status do tradutor, assim como o sistema literário do qual este provém, são fatores que também serão pertinentes às referidas análises críticas.
Tradução, adaptação e validação do Defensive Style Questinnaire (DSQ-40) para o português brasileiro
Resumo:
O estudo dos mecanismos de defesa do ego tem servido como indicativo do modo típico de um indivíduo lidar com os conflitos. Os mecanismos de defesa podem ser agrupados em três fatores alocados de forma hierárquica: fatores maduros, neuróticos e imaturos. Bond desenvolveu um questionário objetivo e auto-aplicável, o Defensive Style Questionnaire – DSQ, que visa identificar os derivados conscientes dos mecanismos de defesa. O objetivo desse estudo é o de descrever o processo de tradução do Defensive Style Questionnaire (DSQ-40) versão em português e avaliar a confiabiidade, validade de conteúdo de constructo dessa versão do instrumento. Métodos: A primeira versão da escala foi apresentada para cinco indivíduos, com graus diferentes de escolaridade, que efetuaram pequenos ajustes de linguagem. Posteriormente, a escala foi apresentada para três “experts”, que avaliaram a validade de conteúdo do instrumento. A versão final foi retraduzida e apresentada para o autor do instrumento original que aceitou essa versão do DSQ-40. Posteriormente foi avaliada a confiabilidade e validade da versão em português do Defensive Style Questionnaire (DSQ-40). A amostra constitui-se de 339 indivíduos. Uma subamostra (n=75) foi avaliada também pelo MMPI, e outra subamostra (n=66) foi também avaliada pelo DFS (Escala de Funcionamento Defensivo). Resultados: Houve necessidade de pequenos ajustes no vocabulário em oito questões e modificações na linguagem em quatro questões, resultando na versão final do instrumento. A média de correlação dos “experts” com cada defesa foi de 89%, e dos fatores maduros, imaturos e neuróticos foi de 100%. A análise fatorial do instrumento forneceu uma distribuição das defesas semelhante ao instrumento original. A avaliação teste-reteste demonstrou boa correlação intraclasse em todos os fatores. O uso de defesas imaturas e neuróticas foi maior entre os pacientes que os controles (p<0,05). Houve correlação entre o nível defensivo de acordo com o DFS (p=0,006) e MMPI (p=0,004) e as defesas imaturas. Conclusões: A adaptação do DSQ-40 por diferentes indivíduos com diferentes graus de escolaridade e pelo grupo de experts possibilitou o ajuste à realidade sociocultural brasileira. Os dados do presente estudo indicam que a versão em português do DSQ-40 possui características psicométricas que permite o seu uso na nossa cultura.
Resumo:
Resumo não disponível.
Resumo:
Neste trabalho é desenvolvida uma metodologia de projeto para identificar as regiões críticas da estrutura de um reboque de linha leve sendo tracionado em pavimentos do tipo rodovia de baixa qualidade e estrada secundária de muito baixa qualidade. Para tanto, são levantados alguns dados experimentais da estrutura, necessários para a aproximação e simulação dinâmica de um modelo simplificado. A excitação da base é realizada por atuadores que simulam as oscilações verticais de um perfil de estrada, a qual é definida de acordo com os estudos realizados por Dodds e Robson (1973). Isto permite a determinação de um histórico de carregamentos das regiões da estrutura do chassi sob a ação das molas da suspensão. Em seguida, é gerado um modelo estrutural simplificado do reboque em elementos finitos, chamado de global, no qual são determinadas as regiões sob ação das maiores tensões. Tendo identificada a região mais crítica da estrutura, é criado um modelo local desta parte, onde se pode observar a distribuição de tensões com mais detalhe, permitindo a identificação dos pontos de concentração de tensões. Desta forma, com a aplicação do método de análise global-local é possível a obtenção de resultados detalhados quanto aos esforços da estrutura com um menor custo computacional.
Resumo:
Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
Resumo:
Este estudo caracteriza-se como uma pesquisa qualitativa que se integra às pesquisas já desenvolvidas pelo NIEE (Núcleo de Informática na Educação Especial) da UFRGS (Universidade Federal do Rio Grande do Sul) e pela ONG Redespecial-Brasil. O referencial teórico deste estudo busca conjugar informações a respeito da inclusão social, escolar e digital, a problemática das crianças com câncer e o tratamento enfrentado e os recursos das Tecnologias de Informação e Comunicação (TIC’s). Para tanto exploramos como fator de destaque o fato das crianças hospitalizadas estarem sofrendo uma exclusão temporária, o que as caracteriza como Pessoas com Necessidades Educacionais Especiais (PNEE’s). A partir da utilização das TIC's com crianças com câncer, em processo de exclusão temporária, é que nos propomos a acompanhar o progresso de apropriação de ferramentas computacionais, focalizando a atuação do facilitador-professor (FP) durante as trajetórias individuais, e a responder à seguinte indagação: Que modalidades de mediação são observadas e que contribuições podem trazer, na aprendizagem de crianças com câncer (exclusão temporária), o processo interativo com ambientes digitais? Para dar conta disso, através de observação direta, foi feito estudo de casos acompanhando a trajetória de três sujeitos hospitalizados e em tratamento de câncer infantil, interagindo em ambientes digitais, com vistas à apropriação de TIC's, tendo presente o processo de desenvolvimento na ZDP. Essa dissertação, portanto, procurou considerar as características individuais de cada sujeito, respeitando suas necessidades, vontades e quadro clínico, no período de seis meses. A análise dos dados coletados foi baseada no aporte pedagógico da Teoria Sócio-Histórica e, principalmente, nas contribuições de Gallimore, Tharp e Santarosa. Através da análise, observamos que, em momentos iniciais de apropriação das ferramentas, as modalidades de suporte mais evidentes foram a informação e a demonstração, que os questionamentos também foram utilizados freqüentemente. Os feedbacks e as estratégias cognitivas foram pouco observados. A autonomia dos sujeitos, contudo, foi evidenciada ao término da pesquisa em todos os sujeitos em face à maioria das ferramentas apresentadas.
Resumo:
Neste trabalho desenvolvemos um texto hipermídico sobre ótica para o ensino médio. Nele abordamos tópicos de ótica geométrica e ótica física, com o uso intensivo de tecnologias da informação, abrangendo a exploração de simuladores (Java Applets), de imagens e animações, acompanhadas de textos teóricos explicativos. Para o material, geramos 77 animações e 63 imagens, e adaptamos 13 simuladores Java Applets, organizados em material interativo desenvolvido em linguagem html e disponibilizado em CD-ROM. O embasamento teórico do trabalho é dado pelas teorias construtivistas cognitivistas, aproveitando as idéias de Piaget, Vygostky, Rogers, Ausubel e Novak. O Material foi aplicado em uma turma de 3a série do ensino médio no Centro de Ensino Médio – SETREM, localizada na região Noroeste do RS. Com este material conseguimos desenvolver os conteúdos de uma forma mais atrativa, com maior envolvimento dos alunos e maior motivação por parte dos mesmos, fazendo com que se sentissem participantes ativos na aquisição de informações e construção do conhecimento. Ao aplicarmos o material, observamos que as novas tecnologias usadas são boas ferramentas auxiliares no processo ensino/aprendizagem de ótica no ensino médio, que devem ser aliadas aos demais recursos didáticos existentes, não devendo ser encaradas como únicas e muito menos como substitutivas do professor, pois a este cabe cada vez mais o papel de orientador, motivador e organizador de um ambiente propício para o ensino/aprendizagem eficiente.
Resumo:
Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.