99 resultados para SQL (Linguagem de programação de computador)
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
XML é um padrão da W3C largamente utilizado por vários tipos de aplicações para representação de informação semi-estruturada e troca de dados pela Internet. Com o crescimento do uso de XML e do intercâmbio de informações pela Internet é muito provável que determinadas aplicações necessitem buscar uma mesma informação sobre várias fontes XML relativas a um mesmo domínio de problema. No intuito de representar a informação dessas várias fontes XML, o programador é obrigado a escolher entre muitas estruturas hierárquicas possíveis na criação dos esquemas de seus documentos XML. Um mesmo domínio de informação, desta maneira, pode então ser representado de diferentes formas nas diversas fontes de dados XML existentes. Por outro lado, verifica-se que as linguagens de consulta existentes são fortemente baseadas no conhecimento da estrutura de navegação do documento. Assim, ao consultar uma determinada informação semanticamente equivalente em várias fontes é necessário conhecer todos os esquemas envolvidos e construir consultas individuais para cada uma dessas fontes. Em um ambiente de integração, entretanto, é possível gerar um modelo global que representa essas fontes. Ao construir consultas sobre um modelo global, temos consultas integradas sobre estas fontes. Para se atingir esse objetivo, contudo, devem ser resolvidos os problemas da heterogeneidade de representação dos esquemas XML. Dessa forma, com base em uma abordagem de integração de esquemas, o presente trabalho define a linguagem de consulta CXQuery (Conceptual XQuery) que possibilita a construção de consultas sobre um modelo conceitual. Para possibilitar o retorno dos dados das fontes nas consultas feitas em CXQuery, foi desenvolvido um mecanismo de tradução da linguagem CXQuery para a linguagem de consulta XQuery 1.0. A linguagem XQuery 1.0 é umas das linguagens mais utilizadas para o acesso as fontes XML e permite que os dados possam ser retornados ao usuário. Para possibilitar essa tradução, foi definida uma metodologia de representação da informação de mapeamento através de visões XPath. Essa metodologia é relativamente eficaz no mapeamento das diferentes representações das fontes XML.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
Este trabalho tem por objetivo determinar e avaliar a transmissibilidade da vibração no corpo humano além de desenvolver um modelo numérico de quatro graus de liberdade representativo do sistema banco e corpo humano. Para auxiliar no desenvolvimento deste trabalho foi realizado um resgate de pesquisas publicadas por pesquisadores anteriormente na área de modelamento numérico, além das medições e avaliações da transmissibilidade da vibração no corpo humano. Foram realizadas medições da transmissibilidade da vibração no corpo humano na posição sentado em um banco comumente utilizado para motoristas de ônibus urbanos. As medições foram realizadas ao longo do eixo z, de acordo com as recomendações das normas ISO 2631 (1974 e 1997), utilizando-se de acelerômetros uni-axiais, um computador com placa conversora analógica para digital (A/D), além de programas desenvolvidos na plataforma de programação gráfica HPVee para aquisição dos níveis de vibração e avaliação das transmissibilidades da vibração. A vibração vertical foi simultaneamente medida no corpo humano (direção z – ISO 2631). Para medir os níveis de vibração no assento, na pélvis, no ombro e na cabeça foram utilizados quatro micro-acelerômetros uni-axiais (Endveco Isotron 2250A/AM1-10) enquanto que no piso, foi utilizado um acelerômetro uni-axial da Brüel & Kjaer 4338. O grupo estudado nos experimentos era composto por cinco indivíduos, sendo três homens e duas mulheres. Avaliou-se a transmissibilidade entre o assento do banco e o piso, entre a pélvis o assento, entre o ombro e o assento e entre a cabeça e o assento. Os resultados indicaram que o sistema apresentou uma amplificação da transmissibilidade entre o assento e o piso em até 2,5 vezes, enquanto que, para as demais transmissibilidades (pélvis/assento, ombro/assento, cabeça/assento) houve uma atenuação gradual da transmissibilidade da vibração Um modelo linear de quatro graus de liberdade foi desenvolvido para representar o comportamento biodinâmico de indivíduos brasileiros submetidos à vibração forçada proveniente de sinais medidos em ônibus urbanos brasileiros. O modelo responde simultaneamente de acordo com os dados obtidos experimentalmente da transmissibilidade entre o assento e o piso e entre o ombro e o assento para uma faixa de freqüência de 4 até 40 Hz. Foi desenvolvida uma rotina no Maple 5.5 (anexo 10.4) a qual consiste em ajustar uma curva de transmissibilidade calculada com os limites estabelecidos dos parâmetros biomecânicos definidos nos ensaios biométricos e literatura às curvas de transmissibilidade obtidas experimentalmente. Os resultados indicaram que para a curva de transmissibilidade entre o assento e o ombro o erro foi de 37,78% enquanto que para as curvas de transmissibilidade entre o assento e o piso apresentaram um erro de 17,74 %. Apesar dos valores de erro percentual terem sido relativamente elevados, os valores de ambas as curvas de transmissibilidade numérica apresentaram resultados de ajuste muito próximos às curvas experimentais.
Resumo:
O objetivo deste trabalho é desenvolver um programa computacional, baseado no método dos elementos finitos, para simular situações de reforço e recuperação de peças de concreto armado. A linguagem Matlab é a ferramenta utilizada para a elaboração do programa. É uma linguagem de alta performance para computação técnica. Integra computação, visualização e programação em um fácil ambiente para uso, onde problemas e soluções são expressos em familiar notação matemática. A característica principal deste programa é de permitir alterações na modelagem numérica durante a análise do problema, podendo-se retirar ou acrescentar elementos da estrutura, aumentar ou diminuir rigidezes, alterar materiais, etc, viabilizando-se, assim, uma avaliação das diversas etapas ou hipóteses dos procedimentos de recuperação ou reforço de estruturas. O programa permite a mudança de vinculações do elemento estrutural, durante a análise. Além disto, é permitido não só incrementos de forças como incrementos de deslocamentos impostos à estrutura. O programa computacional utiliza duas etapas distintas, baseadas em um modelo elasto-viscoplástico. Na primeira etapa, faz-se a determinação da resposta da estrutura ao longo do tempo. Considera-se, nesta etapa, que o material possui comportamento viscoelástico. Na segunda, busca-se determinar a resposta da estrutura para um carregamento instantâneo, considerando-se o material com comportamento elastoplástico Para melhor representar o comportamento do concreto, quando submetido a carregamento de longa duração, utilizou-se um modelo de camadas superpostas. A armadura é introduzida no modelo como uma linha de material mais rígido dentro do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Assim, os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Para verificar a precisão do programa computacional desenvolvido, comparam-se os resultados numéricos com resultados experimentais, cujos ensaios foram realizados no Laboratório de Ensaios e Modelos Estruturais do Programa de Pós-Graduação em Engenharia Civil da Escola de Engenharia da Universidade Federal do Rio Grande do Sul, e no Laboratório de Estruturas da Escola de Engenharia de São Carlos- USP. Nessas comparações, obtiveram-se ótimas aproximações entre os resultados numéricos e experimentais.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
O atual contexto social tem sido marcado pelo constante avanço tecnológico e científico, pela rápida defasagem dos conhecimentos e pela demanda por profissionais mais qualificadas e capazes de aprender e resolver problemas colaborativamente. A fim de atender esta demanda, o ensino tradicional tem que mudar, de forma que as pessoas possam desenvolver habilidades de “aprender a aprender” e “aprender colaborativamente”. A Aprendizagem Colaborativa tem sido apontada como uma alternativa a este problema, possibilitando uma aprendizagem flexível, ativa e centrada no aluno. Os alunos aprendem em colaboração com outros alunos, o que possibilita uma aprendizagem mais profunda, através de trocas de idéias, dúvidas e pontos de vista. Por outro lado, o advento da rede Internet e a consolidação desta como um importante meio de comunicação mundial têm introduzido novas possibilidades à Aprendizagem Colaborativa Apoiada por Computador (Computer Supported Collaborative Learning – CSCL). Uma atenção especial tem sido dada ao WWW, serviço que possui grande potencial como meio ativo de aprendizagem, embora seja amplamente utilizado como meio passivo de transmissão de informações pela Internet. Este cenário tem viabilizado a utilização da infra-estrutura da Internet para a criação de um sistema de CSCL de grande alcance e a um custo relativamente baixo. O objetivo principal do presente trabalho é propor e implementar um modelo de CSCL baseado na Internet que forneça, de forma integrada, o suporte necessário para o desenvolvimento efetivo de atividades colaborativas de aprendizagem. O trabalho realizado pode ser dividido em três etapas principais: (1) o levantamento teórico, que consistiu no estudo das principais áreas relacionadas com o trabalho desenvolvido, o que foi fundamental para a definição do modelo de sistema de aprendizagem colaborativa proposto; (2) a definição do modelo, que consistiu no levantamento das atividades básicas que devem ser apoiadas por um ambiente de CSCL e na proposição do modelo de um sistema de CSCL baseado na Internet com suporte às atividades levantadas; (3) a implementação do modelo, que possibilitou a verificação da viabilidade da utilização do serviço WWW como base para um ambiente de CSCL, através da utilização de recursos de programação para web e da integração de ferramentas já existentes na Internet.
Resumo:
Neste trabalho procuramos observar uma comunidade virtual no IRC (Internet Relay Chat), o canal #Pelotas. A partir de seu estudo, sob o viés da Grounded Theory, procuramos construir categorias básicas sobre diversos aspectos encontrados na comunidade, tais como questões de identidade, gênero e as próprias relações e convenções sociais. Ao mesmo tempo, procuramos construir um conceito de comunidade virtual que abarque nosso entendimento e os resultados da pesquisa empírica. Deste modo, sob vários aspectos, é possível analisar uma comunidade virtual, e principalmente, o modo sobre o qual ela se estrutura através da Comunicação Mediada por Computador.
Resumo:
Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).
Resumo:
Modelos BDI (ou seja, modelos Beliefs-Desires-Intentions models) de agentes têm sido utilizados já há algum tempo. O objetivo destes modelos é permitir a caracterização de agentes utilizando noções antropomórficas, tais como estados mentais e ações. Usualmente, estas noções e suas propriedades são formalmente definidas utilizandos formalismos lógicos que permitem aos teóricos analisar, especificar e verificar agentes racionais. No entanto, apesar de diversos sistemas já terem sido desenvolvidos baseados nestes modelos, é geralmente aceito que existe uma distância significativa entre esta lógicas BDI poderosas e sistemas reais. Este trabalho defende que a principal razão para a existência desta distância é que os formalismos lógicos utilizados para definir os modelos de agentes não possuem uma semântica operacional que os suporte. Por “semântica operacional” entende-se tanto procedimentos de prova que sejam corretos e completos em relação à semântica da lógica, bem como mecanismos que realizem os diferentes tipos de raciocínio necessários para se modelar agentes. Há, pelo menos, duas abordagens que podem ser utilizadas para superar esta limitação dos modelos BDI. Uma é estender as lógicas BDI existentes com a semântica operacional apropriada de maneira que as teorias de agentes se tornem computacionais. Isto pode ser alcançado através da definição daqueles procedimentos de prova para as lógicas usadas na definição dos estados mentais. A outra abordagem é definir os modelos BDI utilizando formalismos lógicos apropriados que sejam, ao mesmo tempo, suficientemente poderosos para representar estados mentais e que possuam procedimentos operacionais que permitam a utilizaçao da lógica como um formalismo para representação do conhecimento, ao se construir os agentes. Esta é a abordagem seguida neste trabalho. Assim, o propósito deste trabalho é apresentar um modelo BDI que, além de ser um modelo formal de agente, seja também adequado para ser utilizado para implementar agentes. Ao invés de definir um novo formalismo lógico, ou de estender um formalismo existente com uma semântica operacional, define-se as noções de crenças, desejos e intenções utilizando um formalismo lógico que seja, ao mesmo tempo, formalmente bem-definido e computacional. O formalismo escolhido é a Programação em Lógica Estendida com Negação Explícita (ELP) com a semântica dada pelaWFSX (Well-Founded Semantics with Explicit Negation - Semântica Bem-Fundada com Negação Explícita). ELP com a WFSX (referida apenas por ELP daqui para frente) estende programas em lógica ditos normais com uma segunda negação, a negação explícita1. Esta extensão permite que informação negativa seja explicitamente representada (como uma crença que uma propriedade P não se verifica, que uma intenção I não deva se verificar) e aumenta a expressividade da linguagem. No entanto, quando se introduz informação negativa, pode ser necessário ter que se lidar com programas contraditórios. A ELP, além de fornecer os procedimentos de prova necessários para as teorias expressas na sua linguagem, também fornece um mecanismo para determinar como alterar minimamente o programa em lógica de forma a remover as possíveis contradições. O modelo aqui proposto se beneficia destas características fornecidas pelo formalismo lógico. Como é usual neste tipo de contexto, este trabalho foca na definição formal dos estados mentais em como o agente se comporta, dados tais estados mentais. Mas, constrastando com as abordagens até hoje utilizadas, o modelo apresentanto não é apenas uma especificação de agente, mas pode tanto ser executado de forma a verificar o comportamento de um agente real, como ser utilizado como mecanismo de raciocínio pelo agente durante sua execução. Para construir este modelo, parte-se da análise tradicional realizada na psicologia de senso comum, onde além de crenças e desejos, intenções também é considerada como um estado mental fundamental. Assim, inicialmente define-se estes três estados mentais e as relações estáticas entre eles, notadamente restrições sobre a consistência entre estes estados mentais. Em seguida, parte-se para a definição de aspectos dinâmicos dos estados mentais, especificamente como um agente escolhe estas intenções, e quando e como ele revisa estas intenções. Em resumo, o modelo resultante possui duas características fundamentais:(1) ele pode ser usado como um ambiente para a especificação de agentes, onde é possível definir formalmente agentes utilizando estados mentais, definir formalmente propriedades para os agentes e verificar se estas propriedades são satifeitas pelos agentes; e (2) também como ambientes para implementar agentes.
Resumo:
Este trabalho se propõe a discutir a clínica psicanalítica na infância, na obra de Françoise Dolto, como cena onde a linguagem, enquanto estrutura, opera. Para tanto, recorro à lingüística da enunciação em Benveniste e Jakobson como campos de conhecimento que servem para subsidiar as análises sobre essa cena. Percorro a obra de Françoise Dolto, Émile Benveniste e Roman Jakobson, analisando cenas clínicas de quatro casos de Dolto, entrelaçando-os às noções benvenistianas de subjetividade na linguagem e à concepção de metáfora e metonímia jakobsoniana. As análises dos casos objetivam ilustrar as intervenções da analista pensando seu lugar enunciativo junto às crianças, seus pais e/ou cuidadores e a estrutura da linguagem como constitutiva das produções das crianças em análise, enquanto movimentos metafóricos e metonímicos. Nesse percurso de análise, encontrei uma forma de intervenção singular em Dolto, que posiciona pais e paciente enquanto sujeitos, efeitos de linguagem, e que toma as produções infantis como texto, linguagem cifrada. Dolto interpreta arbitrando sentidos quando se dirige aos bebês. Sentidos que não são aleatórios, posto que ela trabalha sobre as palavras da história do sujeito. Quando se dirige a crianças maiores, sua postura é de escutar a estrutura da linguagem no sintoma, no jogo, nas produções gráficas e plásticas e nas falas da criança. Se por um lado há uma diferença profunda no modo de cada intervenção, tendo em vista os momentos diferentes de constituição subjetiva entre um bebê e uma criança maior, por outro lado, é sempre na posição de quem supõe um sujeito do inconsciente, capturado na estrutura da linguagem e que tem como destino desejar, que a analista se coloca. Por fim, proponho o aprofundamento desse tema com vistas a pensar mais detalhadamente as diferentes posições enunciativas, em especial o lugar de Ele nessa clínica.
Resumo:
A linguagem XSLT transforma documentos XML não apenas em novos documentos XML, mas também em documentos HTML, PDF e outros formatos, tornando-se bastante útil. Entretanto, como um ambiente de programação, XSLT apresenta algumas deficiências. Não apresenta um ambiente gráfico de programação e exige conhecimento prévio sobre manipulação de estrutura de dados em árvores, o que compromete a produtividade do programador e limita o uso da linguagem a especialistas. Assim, várias propostas têm sido apresentadas na tentativa de suprir estas deficiências, utilizando recursos variados como geração automática de script XSLT e reuso de transformações. Este trabalho apresenta a ferramenta X2H que visa auxiliar a apresentação de documentos XML em HTML, aumentando a produtividade de programadores que utilizam a linguagem XSLT. Para facilitar a sua utilização, a X2H possui uma interface gráfica com abordagem baseada em exemplos, na qual o usuário compõe um documento exemplo HTML a partir de um documento fonte XML. Estes documentos são visualizados como árvores hierárquicas, nas quais é vinculado um conjunto de operações dependente do contexto, que permitem a composição do documento exemplo. Este documento serve de entrada para um gerador de regras, que gera um script na linguagem XSLT que, se executado, apresenta o documento HTML resultado desejado.
Resumo:
Leitura de Sistema do Imperfeito & Outros Poemas, livro de Guilhermino Cesar publicado em 1977. O perfil múltiplo do autor – professor, tradutor, historiador, jornalista, economista, escritor e pesquisador em diversas áreas do conhecimento – resulta numa poesia plurirrefencial, tocada por temas de sua época. Constatamos em Sistema do Imperfeito & Outros Poemas o privilégio de determinadas temáticas relacionadas com a tecnologia, a velocidade, a fragmentação, a sociedade massificada, o impacto (especialmente no que diz respeito ao Brasil) do caos urbano. Essa problemática fica mais evidente a partir da segunda metade do século XX: no Brasil, por um processo de intensa modernização urbana; em âmbito mundial, por uma espantosa difusão da influência dos meios de comunicação de massa. Esta leitura, articulada a partir de autores que pensaram as transformações sociais e culturais do século XX, volta-se para o Sistema do Imperfeito & Outros Poemas examinando a estrutura do livro e o conjunto de referências culturais e históricas mobilizadas pelo autor, pondo em relevo os recursos formais e a linguagem construída por Guilhermino Cesar.
Resumo:
Abordagens clássicas de linguagens de consultas para bancos de dados possuem certas restrições ao serem usadas, diretamente, por aplicações que acessam dados cujo conteúdo não é completamente conhecido pelo usuário. Essas restrições geram um cenário onde argumentos de consultas, especificados com operadores boleanos, podem retornar resultados vazios. Desse modo, o usuário é forçado a refazer suas consultas até que os argumentos usados estejam idênticos aos dados armazenados no banco de dados. Em bases XML, este problema é reforçado pela heterogeneidade das formas em que a informação encontra-se armazenada em diferentes lugares. Como solução, uma alternativa seria o uso de funções de similaridade na substituição de operadores boleanos, a fim de que o usuário obtenha resultados aproximados para a consulta especificada. Neste trabalho é apresentada uma proposta para suporte a argumentos de consulta vagos através da extensão da linguagem XPath. Para isso, são utilizadas expressões XPath que utilizam novas funções, as quais são, diretamente, adicionadas ao processador da linguagem de consulta. Além disso, é apresentada uma breve descrição das métricas de similaridade utilizadas para a criação das funções. As funções que foram adicionadas a um processador XPath possuem uma ligação muito estreita com as métricas utilizadas. Como as métricas, as funções trabalham com valores simples (elementos atômicos) e compostos (elementos complexos). As funções que trabalham com elementos atômicos podem ser classificadas tanto pelo tipo de dado que será analisado, como pelo tipo de análise que será feita. As funções para elementos complexos comparam conjuntos de elementos atômicos de acordo com a forma do agrupamento (conjunto, lista ou tupla).