40 resultados para Modelo Conceitual
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
XML é um padrão da W3C largamente utilizado por vários tipos de aplicações para representação de informação semi-estruturada e troca de dados pela Internet. Com o crescimento do uso de XML e do intercâmbio de informações pela Internet é muito provável que determinadas aplicações necessitem buscar uma mesma informação sobre várias fontes XML relativas a um mesmo domínio de problema. No intuito de representar a informação dessas várias fontes XML, o programador é obrigado a escolher entre muitas estruturas hierárquicas possíveis na criação dos esquemas de seus documentos XML. Um mesmo domínio de informação, desta maneira, pode então ser representado de diferentes formas nas diversas fontes de dados XML existentes. Por outro lado, verifica-se que as linguagens de consulta existentes são fortemente baseadas no conhecimento da estrutura de navegação do documento. Assim, ao consultar uma determinada informação semanticamente equivalente em várias fontes é necessário conhecer todos os esquemas envolvidos e construir consultas individuais para cada uma dessas fontes. Em um ambiente de integração, entretanto, é possível gerar um modelo global que representa essas fontes. Ao construir consultas sobre um modelo global, temos consultas integradas sobre estas fontes. Para se atingir esse objetivo, contudo, devem ser resolvidos os problemas da heterogeneidade de representação dos esquemas XML. Dessa forma, com base em uma abordagem de integração de esquemas, o presente trabalho define a linguagem de consulta CXQuery (Conceptual XQuery) que possibilita a construção de consultas sobre um modelo conceitual. Para possibilitar o retorno dos dados das fontes nas consultas feitas em CXQuery, foi desenvolvido um mecanismo de tradução da linguagem CXQuery para a linguagem de consulta XQuery 1.0. A linguagem XQuery 1.0 é umas das linguagens mais utilizadas para o acesso as fontes XML e permite que os dados possam ser retornados ao usuário. Para possibilitar essa tradução, foi definida uma metodologia de representação da informação de mapeamento através de visões XPath. Essa metodologia é relativamente eficaz no mapeamento das diferentes representações das fontes XML.
Resumo:
A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
O volume de informações armazenadas e representadas em XML cresce rapidamente, abrangendo desde a Web até bancos de dados corporativos. Nesse contexto, surge a necessidade de mecanismos de recuperação de dados nesse formato que sejam, ao mesmo tempo, mais eficientes e mais eficazes. Várias propostas de linguagens de consulta têm sido feitas, dentre as quais podem ser citadas XQL, XML-QL e Quilt. Essas linguagens, todas textuais, são mais indicadas para manipulação programática ou para usuários experientes. Visando atingir também os usuários menos experientes, foram propostas linguagens visuais, tais como XML-GL e Xing. Todas essas linguagens, entretanto, apresentam duas características comuns: a) o usuário precisa conhecer, pelo menos em um certo nível, a estrutura interna dos documentos; b) a mesma informação, se armazenada de formas diferentes, exige instruções de consulta diferentes. A solução para esses problemas apresentada neste trabalho envolve a utilização de um modelo conceitual para representar os conceitos e as relações entre conceitos que ocorrem em documentos XML pertencentes a um determinado domínio de problema. O modelo conceitual é representado por uma ontologia do domínio do problema. Essa associação permite que consultas possam ser elaboradas tendo como base os conceitos da ontologia. Para permitir a associação da ontologia a conjuntos de documentos XML, apresentam-se regras de mapeamento que permitem definir se um documento XML é compatível com uma determinada ontologia. A partir dessa definição, propõe-se uma linguagem visual para consultas a documentos XML com base em ontologias, e apresenta-se uma proposta de interface visual para essa linguagem.
Resumo:
Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.
Resumo:
As particularidades encontradas na modelagem de bancos de dados geográficos tornam necessário o desenvolvimento de modelos específicos. A totalidade dos modelos desenvolvidos oferece recursos para a modelagem de aspectos estáticos. Alguns dos modelos apresentam soluções parciais para a modelagem de aspectos dinâmicos. A possibilidade de executar processos de análise geográfica, que alteram o estado dos componentes do banco de dados geográficos é, de forma geral, a maior motivação para justificar os investimentos necessários para a sua construção. A formalização desses processos em um modelo conceitual, na fase de projeto, torna desnecessário o uso da terminologia específica que cada software de SIG emprega. A solução desenvolvida estende um framework conceitual (GeoFrame) com uma semântica que suporta a expressão de processos de análise geográfica, mantendo compatibilidade com a linguagem UML. Para utilizar de forma adequada os recursos do framework, uma metodologia para a elaboração do modelo do usuário é indicada. Nessa metodologia, os processos são identificados a partir da elaboração de diagramas de casos de uso e atividades, incorporados no diagrama de classes e detalhados através de diagramas de atividades contendo ações. Um levantamento sobre operações utilizadas em processos de análise geográfica abrangendo a visão conceitual, lógica e de implementação de vários autores levou à construção de um catálogo de operações geográficas. Essas operações foram modeladas utilizando os elementos de modelagem de comportamento da especificação da UML, versão 2.0. O conjunto de recursos oferecidos nesse trabalho proporciona ao projetista de bancos de dados geográficos o desenvolvimento de uma especificação em alto nível e abrangente, utilizando a linguagem UML, reconhecida como padrão em modelagem de sistemas.
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
Resumo:
Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.
Resumo:
Este trabalho apresenta um estudo de caso aplicando Soft Systems Methodology, com construção de modelos conceituais dos processos e das funções de maior relevância estratégica, buscando-se um diagnóstico sistêmico através da Política Fiscal da Prefeitura Municipal de São Domingos do Sul; a profunda inter-relação, conjugação e interpenetração entre a dinâmica sócioeconômica da Administração Pública com a sociedade e sobre possíveis alternativas para transformação desta realidade. O presente estudo passa por vários estágios, de acordo com os pressupostos da metodologia. O estágio inicial configura a descoberta da problemática pluralistica, como um processo sistemático de análise. Os passos seguintes consistem na seleção do sistema relevante e a conseqüente produção da definição acurada do mesmo. A definição sucinta exprime a essência da percepção dos modeladores em relação ao sistema relevante. A seguir, o modelo conceitual desta definição é estruturado como um processo sistêmico ideal. O modelo conceitual é utilizado para questionar a situação do mundo real, construída na etapa inicial. As etapas finais sintetizam as melhorias baseadas no debate entre as partes envolvidas e a implementação das melhorias. Os principais resultados obtidos através da metodologia foram: a visão sistêmica da organização no momento da “descoberta” da problemática pluralistica e a interação do grupo modelador na aplicação da metodologia no intuito de certificar a excelência administrativa da PMSDS.
Resumo:
Com a crescente integração dos mercados mundiais, novos agentes econômicos têm afetado o cenário das organizações, exigindo das mesmas o desenvolvimento de novas competências estratégicas. O ritmo da competição global e a mudança tecnológica estão forçando as organizações a lutar pela busca do diferencial competitivo. No setor agroalimentar as ameaças e desafios apontam para a concentração e ampliação das exigências das redes de distribuição, aumentando o seu poder de barganha em relação aos fornecedores. Este estudo trata da gestão estratégica de organizações agroindustriais locais e suas relações com o setor supermercadista, seu principal cliente. Tem um caráter exploratório, tendo em vista os poucos trabalhos com este enfoque junto à agroindústrias locais ou regionais de médio e pequeno porte. Ao buscar as informações junto a empresas da rede supermercadista, sobre os critérios mais importantes para a definição do perfil dos seus fornecedores agroalimentares, procura-se compreender como organizações agroindustriais administram esses critérios e estabelecem a(s) ênfase(s) estratégica(s), para a sua sustentação nesse mercado. Seguindo a evolução histórica e conceitual da produção acadêmica nos campos da organização industrial e administração estratégica e, mais importante, buscando sempre pontos de interface, nas diversas abordagens quanto à organização das empresas, seja na obtenção e utilização dos seus recursos e capacitações internas, seja na articulação com outras organizações no seu ambiente de negócios, buscou-se elementos comuns, não excludentes, que transitam nas diversas correntes teóricas, e que permitam uma compreensão consistente acerca das estratégias competitivas dessas empresas. A relevância teórica desse estudo está na construção de um modelo conceitual (framework) para a análise da gestão estratégica de empresas agroindustriais locais. Quanto à relevância prática, ressalta-se a contribuição para o entendimento da dinâmica das transformações do setor agroalimentar, especialmente as novas exigências que o setor varejista “impõe” às empresas agroindustriais e as possíveis estratégias de sobrevivência para organizações locais afetadas por este processo. A ação de pesquisa junto aos empresários, proporcionou um exercício de reflexão que permitiu explicitar o pensamento estratégico, não muito usual em empresas desse porte. Ao organizar as questões e as discussões à luz das cinco dimensões competitivas – negociação, flexibilidade, dependability, inovatividade e imagem – que se constituíram na base conceitual das ênfases estratégicas, foi possível estabelecer o caminho percorrido por cada organização.
Resumo:
A crescente necessidade de padronização, eficácia e gerenciamento de processos têm aumentado o interesse das mais diferentes organizações pela tecnologia de workflow. Entretanto, a rápida propagação da tecnologia de workflow, ocorrida na última década, fez com que muitos sistemas desenvolvidos nesta área fossem disponibilizados e difundidos sem uma padronização clara. Analisando-se especificamente a fase de construção do workflow, nota-se que há muitas divergências. Conceitualmente, ainda não há modelos nem metodologias de modelagem amplamente aceitos e consolidados. Quanto às implementações, ainda não existe uma especificação clara e detalhada das ferramentas de definição. A conseqüência deste panorama é a baixa interoperabilidade e a baixa padronização dos conceitos, funcionalidades e interações das ferramentas de definição. Contudo, muitos esforços estão sendo feitos para solucionar o problema da interoperabilidade e padronização. A área de workflow como um todo já começa a apontar fortes tendências de padronização dos conceitos, funcionalidades e interações de seus sistemas. Detectar e avaliar tais tendências são os focos de estudos desta dissertação. Mais precisamente, o objetivo desta dissertação é fornecer informações e métodos que possam ajudar desenvolvedores e usuários de ferramentas de definição a: compreender, descrever e avaliar os conceitos, funcionalidades e interações deste tipo de ferramenta. Para tanto, é mostrado um método de descrição de modelos conceituais de ferramentas de definição. O referido método é resultado de uma pesquisa sobre o modelo conceitual deste tipo de ferramenta. Com base nas informações pesquisadas, foi desenvolvido o modelo conceitual de uma ferramenta de definição chamada de Amaya Workflow (AW). Para mostrar a viabilidade de implementação do modelo conceitual AW e concretizar em um software os estudos desenvolvidos durante esta dissertação, foi implementado o protótipo Amaya Workflow. Por fim, é mostrado um panorama geral das funcionalidades, conceitos e interações das principais ferramentas de definição existentes. Com base neste panorama e nos estudos anteriores, é descrito um método de avaliação de modelos conceituais de ferramentas de definição.
Resumo:
A presente dissertação tem como objetivo principal o desenvolvimento de uma metodologia de estabilização de processos voltada às empresas de manufatura, utilizando ferramentas de controle da qualidade. A metodologia proposta, chamada de “Estabilização de Processos”, propõe-se a garantir a previsibilidade dos resultados dos processos operacionais através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. O método de trabalho utilizado envolveu as etapas de revisão da literatura existente sobre o assunto, apresenta as etapas do modelo conceitual proposto e as ferramentas de engenharia da qualidade eficientes no cumprimento destas etapas. Por fim, é apresentado e discutido um estudo de caso em uma indústria de pisos e blocos de concreto, que contribuiu para a validação do método proposto.
Resumo:
Com o objetivo de realizar consultas em diferentes fontes XML,é necessário que se escreva uma consulta específica para cada fonte XML. Uma solução mais adequada é fazer uma única consulta sobre um esquema conceitual e então traduzi-la automaticamente para consultas XML para cada fonte XML específica. CXPath é uma linguagem de consulta que foi proposta para consultar dados em nıvel conceitual. Este trabalho tem como objetivos formalizar a linguagem existente, estendê-la para permitir consultas que utilizem o conceito de herança e estender o mecanismo de tradução de consultas. A formalização da linguagem é feita por meio de um conjunto de regras que definem formalmente um critério para validar uma consulta escrita nessa linguagem sobre um esquema conceitual. Essa formalização permite estender a linguagem para que ela passe a tratar os relacionamentos de herança e especialização. Outra contribuição dessa formalização é que ela apresenta o primeiro passo rumo à verificação formal de que a avaliação da consulta global traz os mesmos resultados obtidos pela avaliação da consulta resultante do processo de mapeamento de consultas proposto. A extensão do mecanismo de tradução de consultas é necessária para traduzir relacionamentos representados no modelo conceitual para junções nas fontes de dados XML. Tal aspecto é fundamental para permitir a construção de modelos conceituais com relacionamentos semânticos e que não dependam de relacionamentos físicos existentes nos documentos fontes, mas apenas de junções tal como é feito em bases de dados relacionais.
Resumo:
Esta dissertação apresenta um modelo conceitual do padrão de comportamento de pedestres em travessias semaforizadas. O modelo propõe uma estrutura de classificação dos pedestres de acordo com suas atitudes ao atravessar uma via. A análise envolve a consideração de fatores que podem influenciar as decisões dos pedestres sobre onde e quando iniciar a trajetória de travessia. O uso adequado das travessias semaforizadas é definido como conformidade de travessia. A conformidade de travessia pode ser de dois tipos: espacial, relacionada à localização em que o pedestre atravessa a via e, temporal, relacionada ao momento em que o pedestre decide iniciar a travessia. O modelo conceitual foi aplicado na área central da cidade de Porto Alegre. Com o objetivo de estimar as conformidades de travessia foram realizadas modelagens com redes neurais artificiais. Esta ferramenta proporciona o entendimento de problemas com alto grau de complexidade, que agregam variáveis com relações não-lineares entre si. As variáveis utilizadas na modelagem foram (i) gap máximo, (ii) gap crítico, (iii) 85° percentil de gaps, (iv) volume de pedestres, (v) volume de veículos, (vi) velocidade de veículos, (vii) largura da via, (viii) largura da travessia e, (ix) tempo de espera pelo verde no semáforo. Os resultados demonstraram que as características particulares de cada local têm influência nas conformidades de travessia. As análises de sensibilidade dos modelos indicaram que as variáveis relacionadas às características locais de geometria e condições de entorno das travessias exercem maior influência sobre a conformidade de travessia espacial. Por outro lado, a modelagem indicou que as características do regime do tráfego são os aspectos mais importantes na determinação da conformidade de travessia temporal.